Nvidia brengt GeForce RTX 2080 Ti, RTX 2080 en RTX 2070 eind september uit

Nvidia heeft tijdens zijn GeForce Gaming Event de GeForce RTX 2080 Ti, RTX 2080 en RTX 2070 officieel aangekondigd. De videokaarten zijn gebaseerd op de Turing-architectuur en bevatten RT-cores voor ray tracing. Vanaf 20 september zijn de kaarten te koop.

Nvidia heeft alle informatie over de GeForce RTX-videokaarten op zijn website gezet en de referentieontwerpen van de fabrikant zijn vanaf nu te bestellen. De nieuwe videokaarten krijgen een koeler met twee fans, daarmee wijkt Nvidia af van zijn eerdere koelers met één radiale fan. Volgens Nvidia is de nieuwe koeler veel stiller, de geluidsproductie zou één vijfde zijn van die van een GTX 1080 Ti Founders Edition.

De Nvidia GeForce RTX-videokaarten zijn voorzien van een Turing-gpu, waarvan het bedrijf vorige week de architectuur presenteerde samen met drie Quadro RTX-videokaarten voor workstations. De consumentenversies hebben minder Cuda-cores en minder gddr6-geheugen dan hun professionele tegenhangers. Nvidia heeft nog niet alle details over de gpu's van de consumentenkaarten gegeven, maar bij de presentatie toonde de fabrikant een Turing-gpu met 14tflops aan rekenkracht. Vermoedelijk is dat de gpu met 4352 Cuda-cores die in de RTX 2080 Ti zit. De volledige gpu die in de duurste Quadro-uitvoering zit heeft 4608 Cuda-cores en is goed voor 16tflops.

De RTX 2080 Ti beschikt over een gpu met 4352 Cuda-cores. Nvidia noemt boostkloksnelheid van 1635MHz met overklok, of 1545MHz voor een referentiemodel. De RTX 2080 heeft 2944 Cuda-cores, maar die zijn hoger geklokt: 1800MHz voor een oc-versie, of 1710MHZ voor een referentiemodel. De goedkoopste RTX-kaart die Nvidia nu aankondigt is de RTX 2070 met 2304 Cuda-cores. De Founders Edition met overklok heeft een boostsnelheid van 1710MHz, de referentiesnelheid van dit model is 1620MHz.

Van de RTX 2080 en 2070 is bekend dat ze een kleinere gpu hebben met minder Cuda-cores. Ook is er verschil in RT-cores, want de 2080 doet volgens Nvidia 8 Giga Rays per seconde en voor de RTX 2070 is dat 6 Giga Rays. De RTX 2080 Ti haalt 10 Giga Rays per seconde en dat is gelijk aan de duurste RTX Quadro-kaart.

De toevoeging van de RT-cores moet realtime ray tracing in games mogelijk maken. Hoe dat wordt toegepast zal per game verschillen. Nvidia demonstreerde verschillende spellen met RTX-ondersteuning, waaronder Shadow of the Tomb Raider, Metro Exodus en Battlefield V. De games worden niet volledig met ray tracing gerenderd, maar voor bepaalde schaduw- of lichteffecten wordt het RTX-platform ingezet.

Verder beschikken de GeForce RTX-kaarten over Tensor Cores voor kunstmatige intelligentie. Ook dat moet in games toegepast worden, het kan volgens Nvidia bijvoorbeeld gebruikt worden voor upscaling en anti aliasing-technieken. Nvidia heeft een nieuwe benaming bedacht voor de combinatie van de prestaties van alle verschillende cores: rtx-ops. Het topmodel, de RTX 2080 Ti, is goed voor 78 tera-rtx-ops, de RTX 2080 haalt 60 tera-rtx-ops en de RTX 2070 scoort 45 tera-rtx-ops.

Nvidia heeft geen benchmarks getoond van de nieuwe gpu's in vergelijking met hun voorgangers. Hoeveel snelheidswinst er is voor de RTX-kaarten in games die geen gebruikmaken van ray tracing, is nog niet bekend. Los van de toevoegingen van de RT- en Tensor-cores is de gpu-architectuur van Turing vermoedelijk vergelijkbaar met Pascal.

De RTX 2080 Ti en 2080 zijn uitgerust met een NVLink-connector, die de sli-aansluiting vervangt. Via NVLink zijn net als met sli twee videokaarten te combineren. Om dat te doen moet een brug aangeschaft worden, die kost 79 dollar. Bij de RTX 2070 ontbreekt deze mogelijkheid.

Nvidia verkoopt Founders Editions van de RTX 2080 Ti, 2080 en 2070 voor respectievelijk 1249, 849 en 639 euro. Daarmee zijn de nieuwe videokaarten fors duurder dan hun voorgangers. Nvidia noemde in zijn presentatie echter prijzen vanaf 999, 699 en 499 dollar voor de drie RTX-kaarten. Die prijzen gelden waarschijnlijk voor de goedkoopste versies van andere fabrikanten.

  RTX 2080 Ti RTX 2080 RTX 2070 GTX 1080 Ti GTX 1080 GTX 1070
Cuda-cores 4352 2944 2304 3584 2560 1920
Kloksnelheid (MHz) 1350 1515 1410 1480 1607 1506
Boostsnelheid (MHz) 1545 / 1635 1515 / 1800 1620 / 1700 1582 1733 1683
Vram 11GB gddr6 8GB gddr6 8GB gddr6 11GB gddr5x 8GB gddr5x 8GB gddr5
Geheugensnelheid 14Gbit/s 14Gbit/s 14Gbit/s 11Gbit/s 10Gbit/s 8Gbit/s
Geheugenbus 352bit 256bit 256bit 352bit 256bit 256bit
Geheugenbandbreedte 616GB/s 448GB/s 448GB/s 484GB/s 352GB/s 256GB/s
Tdp (Watt) 250 / 260 215 / 225 175 / 185 250 180 150
Introductieprijs ($) 999 / 1199 699 / 799 499 / 599 699 599 / 699 399 / 499
Nvidia GeForce RTX-videokaartenNvidia GeForce RTX-videokaartenNvidia GeForce RTX-videokaartenNvidia GeForce RTX-videokaartenNvidia GeForce RTX-videokaartenNvidia GeForce RTX-videokaartenNvidia GeForce RTX-videokaartenNvidia GeForce RTX-videokaartenNvidia GeForce RTX-videokaarten

Door Julian Huijbregts

Nieuwsredacteur

20-08-2018 • 20:15

420

Lees meer

Reacties (420)

420
410
255
16
0
107
Wijzig sortering
Als grafisch programmeur ben ik zeer teleurgesteld in de marketing prentjes van "RX Off/On". Ze zijn super misleidend. Al deze effecten (color bleeding, refraction, double transparancy en refraction) zijn perfect met rasterization te bekomen. Ze zijn gewoon moeilijker te implementeren en eerder een approximatie, maar ze zijn veel sneller (daarom dat alle huidige generatie games van rasterization gebruik maken).

Toon dan het verschil tussen de huidige path/ray tracing technieken en rasterization naast een ground truth om de betere kwaliteit te benadrukken. Als Nvidia het kunnen van hun nieuwe GPU's moet aantonen door te vergelijken met 10 jaar oude algoritmes, dan is dat maar zielige marketing.

EDIT: Voorbeeldje van de normale, niet RTX trailer voor Battlefield V:
https://www.youtube.com/watch?v=-FEgeuGsmzQ
Pauzeer rond seconde 3 en je ziet dat er ook gewoon reflecties zijn in die plas op de grond. Waarom vergelijken ze die trailers niet? Liefst nog met een FPS counter in beeld.

[Reactie gewijzigd door miklas op 25 juli 2024 04:35]

Goede vergelijkingen!

Helaas wel weinig verschil. De reflecties worden slechts iets beter. Ik denk dat dat in multiplayer niet opvalt.
Ik weet niet wat jij gezien hebt maar zo 'weinig' is dat verschil niet.

In die kanaal gif zie je zonder RTX heel dat vliegtuig dat overvliegt niet eens...

Laten we wel wezen mensen, net als PhysX, hairworks of tesselation is dit een techniek om het er geloofwaardiger uit te laten zien... Is het een múst have? Tuurlijk niet, je kunt ook prima een 2d platformer spelen en net zo veel plezier hebben..
Is het de toekomst? ja natuurlijk.

Raytracing is nou eenmaal de heilige graal wat rendering betreft, en het is echt súper tof dat dit dus gewoon in consumenten producten toegepast gaat worden (ook al is het niet 100% raytracing maar een verzameling samples+extrapolatie).
Ja, het is minder tof dat die níet op AMD kaarten zal zitten en ja het is SUPER niet tof dat Nvidia met deze release feitelijk álle voorgaande videokaarten obsoleet maakt ('GTX' is vanaf nu pleb-tier, als je geen RTX kaart hebt ben je niet meer cool).. maar dat is gewoon Nvidia being Nvidia. AMD zou hetzelfde doen als ze dat konden en Intel dééd hetzelfde tot AMD ze met Zen terug in het gareel trok op CPU land.

Dit zal, net als al die andere 'nieuwe' technieken van weleer, een paar jaar duren voordat het echt mainstream word maar over 5-10 jaar kan je er toch wel van uit gaan dat álle videokaarten en álle spellen gebruik maken van een vorm van raytraced rendering.. en dat vind ik een toffe toekomst om naar uit te kijken! 8-)
Nou, nou, iemand is wel heel snel overtuigd.

Met phsyx hadden ze ook allerlei demo's, van de meest fantastische functies. En wat zien we daarvan enkele jaren later? Dat heel veel engines een eigen manier verzinnen, want wat moet je met een functie die maar een deel van de kaarten ondersteunt.

Vooral nu AMD het hele console gebeuren in handen heeft. Alles wat je dus in RTX steekt als dev, is alleen interessant voor een subset van een al klein deel van de taart.

Als ik eerlijk ben, dan verwacht ik dat RTX vooral een gimmick blijft, waarvoor ontwikkelaars een flinke zak geld van Nvidia krijgen. Een paar gevallen waarin ze het opzichtig gebruiken, maar in gameplay zul je er weinig van merken. Hoevaak kijk jij naar het dak van een auto in Battlefield. Of loop je minuten naar een plas water te staren?
Kort door de bocht, raytracing is het verschil tussen game graphics en die we in films tegenkomen. Alleen staat het nu nog heel erg in de kinderschoenen qua real time ray tracing. Ik verwacht dat dit in een rap tempo omhoog zal gaan in de ontwikkeling. Wat nu op deze kaarten zit, daar lachen we ons over een paar jaar hard om.

Dit is een stap die gewoon enorme sprongen gaat maken. Nu wordt het nog op een paar elementjes toegepast als gimmick, maar zodra er genoeg performance is zal het een wereld van verschil maken.

offtopic:
Alleen die prijzen, zucht
Alleen wordt ik steeds minder afgeleid door graphics, maar vooral door de nog steeds slechter animaties in games.

Lopen, rennen, voertuigen die bewegen. Battlefield ziet er prachtig uit, maar zodra je iets in beweging ziet komen is de hele illusie weg.
Ik heb de indruk dat de kwaliteit van animaties e.d. steeds meer belicht wordt naarmate de graphics beter worden. Als je een blokkerig poppetje hebt dat houterig beweegt, dan stoort dat niet. Maar als een karakter er stilstaand fotorealistisch uit ziet, dan vallen onregelmatigheden in de beweging juist meer op.
.oisyn Moderator Devschuur® @Rannasha21 augustus 2018 12:09
Dit is de bekende uncanny valley. Hoe realistischer iets wordt, hoe meer we onrealistische elementen niet accepteren.
Ja en nee. Ik denk dat hij eerder doelde op zijn perceptie dat de ontwikkeling richting 'fotorealistische' grafische echtheid sneller loopt dan de ontwikkeling op het gebied van realistische bewegingen.

An sich wel te begrijpen.. bewegingen berekenen voor een been wat enkel uit 3 elementen bestaat (bovenbeen+onderbeen+voet) is een stuk minder intensief dan wanneer je de bewegingen van elke driehoekige cm van een broek óók moet berekenen (om maar een voorbeeld te geven).

Maar, het zou zomaar kunnen dat we daar binnenkort ook verbetering in gaan zien gezien intel nu 6-core processors voor de mainstream heeft en AMD 8-core processors. Ik verwacht dat game-ontwikkelaars de komende jaren toch echt wat meer die CPU zullen moeten gaan benutten gewoonweg omdat we naar een situatie toe aan het gaan zijn waar iemand met een degelijke game-pc CPU-kracht 'over' zal gaan hebben als ze dat niet doen.. en dat is zonde. Zodra er 1 of 2 spellen zullen zijn die (optioneel!) góed gebruik kunnen maken van al die CPU-kracht om animaties er super realistisch (of, 'realistischer dan concurrerende spellen') uit te kunnen laten zien.. dan denk ik dat andere ontwikkelaars snel zullen volgen.

Allemaal optimistisch en speculatief natuurlijk... maar ik heb goede hoop. :+
@Ayporos
Het klinkt leuk en mooi meer dan 4 cpu cores + threads, maar de praktijk is dat er nog steeds in geen enkele game echt meer dan 4 cpu cores of threads worden gebruikt. Ik lees continue dit soort uitspraken dat je met een cpu met meer dan 4 cores prestatie winst zou behalen. Er zijn volgens mij anno aug 2018 nog steeds maar enkele spellen die af en toe een 5e thread/core aanspreken. Zeker als je een 4 core /4 threads cpu hebt dan voelt en ervaar je dat als sneller vooral als je veel zaken open hebt of tegelijk doet, maar met alle meer dan 4 core+ cpu's die ik heb gehad/gebruik merk ik echt amper (meestal helemaal niets dus) van al die extra rekenkracht met spellen.

Dan nog een punt wat ik lees over de privacy, ik neem dan aan dat vrijwel iedereen de nvidia software standaard op de pc zet. Op mij na dan ik heb die spyware niet nodig om in te stellen wat er aan grafisch geweld nodig is. Deze geforce experience waarmee je altijd online moet verbonden zijn met internet, is hetzelfde als de spyware van m$ en google. Zo gauw jij gebruikt maakt van je computer word door de software/hardware combinatie goed gekeken wat jij zoal doet op jouw computer (wat men zoal allemaal echt mee kijkt is voor jou niet te controleren.
De nieuwste intel produkten hebben een sterk verbeterd palladium platform hardware matig ingebakken vanaf de z100 series hardware. Of AMD meedoet met dit verhaal weet ik tot nu toe niet, maar ik neem aan dat deze fabrikant dit ook doet.
Dus ja geforce experience is spyware om een voorbeeld te geven, bij de allernieuwste versie die ik heb bekeken 398.86 kun je niet eens meer de installatie van geforce experience weigeren bij het installeren van het driver pakket.
Het is dan ook steeds meer realiteit dat deze big brothers ons continue in de gaten houden. Flauwekul zullen meerdere mensen denken en roepen, helaas de werkelijkheid is dat je al heel lang helemaal geen enkele privacy meer hebt (100% zeker niet in de "cloud".
Daar komt bij dat ik mij afvraag of nvidia dan ook in staat is om jouw hardware remote aan te sturen voor hun cloud produkten (streaming / gpu power). Stof tot nadenken voor diegene die een van de jongste telgen intel hardware heeft, springt jou pc ook elke dag meerdere keren aan zonder dat je het ding aanraakt. Als de pc actief is en je logt in om te kijken wat het ding aan het doen is, dan zal je hier niets van terug vinden in de geen enkel systeem log. De enige remedie is de stekker uit het stop contact dus diegene die nog ouderwets de hele pc uitzetten via een verlengsnoer met schakelaar zijn de enige waar dit niet kan gebeuren.
Geforce Experience gebruikt toch niemand?... ik niet iig. ;)
@Ayporos Slim, heel slim.
Het is irritant dat nvidia nu al tracht mensen te dwingen om deze flauwekul uberhaupt te installeren.
Althans bij de nieuwste beta kun je niet eens meer de optie uitschakelen.
Zijn wel allemaal details die de wereld net iets realistischer en mooier maken.
Nee, je kijkt er waarschijnlijk niet constant bewust naar terwijl je speelt, maar in je onderbewustzijn neem je het wel op en helpt net dat beetje meer voor een betere immersion te bekomen.

daarboven op lijkt me dat RTX het makkelijker maakt om degelijke schaduwen en andere licht effecten te bekomen, wat de traditionele rendering off-load en je *hopelijk* een betere fps bekomt. Elk stukje van de gpu die goed is in een paar dingen. Load balancing?
Mee eens. Games zien er tegenwoordig al bijzonder goed uit, en je moet je echt op dit soort ‘kleine’ details gaan richten om de volgende stap te zetten in realisme. Menselijke perceptie is heel gevoelig voor dit soort dingen, om mentaal de laatste stap te kunnen zetten van ‘mooie plaatjes’ naar ‘levensecht’.

Wat ook meetelt is dat het met raytracing veel makkelijker wordt voor artists en level designers om zelf realistische licht effecten, materialen etc toe te voegen, zonder eerst langs een engine dev te hoeven gaan. Raster graphic van nu zijn de ene hack bovenop de andere hack, veel pre-baked assets, allemaal zaken die pas in de final build volledig tot hun recht komen. Bij raytrace effecten liggen de parameters waar je als designer mee werkt veel dichter bij het resultaat, zodat je in je level editor direct kunt zien wat het effect is etc.

Ik ben erg enthousiast, en ik denk dat raytracing absoluut de toekomst is. Nu nog in de vorm van hybride rendering, maar binnen een jaar of 10 volledig native.

Voor bepaalde wetenschappelijke doeleinden (simulaties) is het overigens ook bijzonder welkom om dedicated RT hardware te hebben, mits deze tenminste voldoende flexibel zijn om ook voor andere taken in te zetten dan alleen rendering.
waarvoor ontwikkelaars een flinke zak geld van Nvidia krijgen
Marketing krijgt de zak geld meestal. De developers hebben er niks over te zeggen, die moeten vervolgens verplicht gameworks integreren, en krijgen met raytracing erbij dus dubbel werk te doen.
Hoe vaak zou je in Battlefield willen weten of er iemand om de hoek zit te wachten tot jij voorbij loopt? Dan is zo'n spiegelende winkelruit aan de overkant toch wel makkelijk. Ben benieuwd of ze dit soort dingen nog gaan proberen te balancen of dat je met RTX een tactisch voordeel houdt.
Laten we wel wezen mensen, net als PhysX, hairworks of tesselation is dit een techniek om het er geloofwaardiger uit te laten zien... Is het een múst have? Tuurlijk niet, je kunt ook prima een 2d platformer spelen en net zo veel plezier hebben..
Is het de toekomst? ja natuurlijk

....

Dit zal, net als al die andere 'nieuwe' technieken van weleer, een paar jaar duren voordat het echt mainstream word maar over 5-10 jaar kan je er toch wel van uit gaan dat álle videokaarten en álle spellen gebruik maken van een vorm van raytraced rendering.. en dat vind ik een toffe toekomst om naar uit te kijken! 8-)
Jup, net zoals dat Physx de toekomst was, en nu ALLE videokaarten en ALLE spellen er gebruik van maken.... oh wacht...

Zelfde geldt voor HD-DVD, 3D-tv en ga zo maar door. SLI is ondertussen ook weer zo goed als dood, als we er een nvidia technologie bij willen halen.
[...]


Jup, net zoals dat Physx de toekomst was, en nu ALLE videokaarten en ALLE spellen er gebruik van maken.... oh wacht...

Zelfde geldt voor HD-DVD, 3D-tv en ga zo maar door. SLI is ondertussen ook weer zo goed als dood, als we er een nvidia technologie bij willen halen.
Echter is ray tracing al een breed ingezette technologie in de 3d animatie en filmwereld, de voornaamste reden dat het niet in games bestaat is omdat de prestaties niet toereikend zijn. Dit is een grote stap richting ray tracing in games, een technologie die het mogelijk maakt om games er realistischer en mooier uit te laten zien.
inderdaad. Games is/was de basis waar veel rendering problemen werden getackeld maar film industrie is ook een hele belangrijke.

Ik werk in de medische beeldbewerking en er wordt al gebruik gemaakt van iets vergelijkbaars om 3D reconstructies er relatief realistisch en bruikbaarder te maken.

Global Illumination heet de techniek.

voorbeeldje:
http://scivis.itn.liu.se/publications/2011/SYR11/
https://en.wikipedia.org/wiki/Global_illumination

Ik denk dat Ray-Tracing deze techniek vooruit brengt om veel realistischer en gedetailleerde beelden te kunnen krijgen voor o.a. diagnose van afwijkingen.
('GTX' is vanaf nu pleb-tier, als je geen RTX kaart hebt ben je niet meer cool)

Ervaar jij de wereld zo?
Ik denk dat het gebruik van de term "pleb-tier" die vraag wel beantwoord... PCMR-speak
"Ja, het is minder tof dat die níet op AMD kaarten zal zitten " AMD heeft in maart hun eigen Ray-tracing al aangekondigd en gedemonstreerd.. Radeon Rays is zelfs opensource beschikbaar. Sterker nog, AMD toont al sinds 2006 demo's van real-time ray tracing.

https://pro.radeon.com/en/software/radeon-rays/

Nvidia pulled hier een "Apple stunt" door te claimen dat zij de innovators zijn.
Oude GTX 660 Ti na 6 jaar opgebrand door in Second Life, na een Firestorm update, constant in ultra mode te blijven met een schermresolutie van 2560x1440 heeft de kaart geen goed gedaan.
Dus uitkijken naar een nieuwe, dacht het wordt een 2070... Maar gezien de prijzen wordt het waarschijnlijk toch een GTX 1080. Heb ik RT nodig, zou fantastisch zijn! Maar dit 3D programma heeft zeker nog 10 jaar nodig vooraleer het op het niveau geraakt om RT te implimenteren. En tegen die tijd zijn er kaarten die honderden keren sterker zijn en een pak minder gaan kosten.
Game ik nog andere games, uiteraard, maar daar is het spelgebeuren het hoofdbelang, niet het detail van een vezel uit het onderhemd van een soldaat. Want als ik tegen een mooie meid sta te praten kijk ik toch ook niet in haar ogen om te zien of mijn haar lekker zit.
Lijkt er wel op dat ze het wat overdrijven inderdaad, vooral die gast van Nvidia tijdens de presentatie maakt het niet geloofwaardiger. Toch was ik, als leek, wel onder de indruk van wat ik zag. Vooral de scène met de ramen van de bus en de raket met de effecten in de ramen van de gebouwen. Wat ik als leek begrijp zit de inst hem vooral in reflectie van dingen die buiten je scherm gebeuren? (Zoals de tank die schiet maar jij toch in de plas reflectie ziet) of ben ok gewoon heel hard in deze reclame getrapt?
(Offscreen) Reflecties waren hiervoor ook al mogelijk, door technieken zoals cube maps. Het nadeel van cube mapping is dat we dus vanuit een centraal punt de omgeving weergeven, dus reflecties "kloppen" enkel als we recht naar het midden van de probe kijken. Vaak worden die afbeeldingen dan wat geblurt, zodanig dat het niet al te veel opvalt dat de reflectie niet 100% klopt. We kunnen natuurlijk meer probes zetten en dus meer cube maps opslaan, maar dat zorgt natuurlijk voor meer computational power en memory usage.

Wat we met ray tracing kunnen, is vanuit de huidige camera positie rays "tracen" door de scene - en op die manier kijken we altijd recht op onze reflectie en hoeven we dus helemaal niets te blurren. Het voordeel is dat het er dus juister uitziet, nadeel van ray tracing is dat het computationally expensive is. Volledige ray tracing kan perfect in beperkte vorm op huidige hardware, zie deze 4 jaar oude tech, maar Nvidia probeert hier met dedicated hardware het process te versnelen. (beetje zoals Bitcoin minen op een GPU of op een ASIC).

Dus het is wel degelijk voorruitgang, natuurlijk voorgesteld met de nodige marketing, alhoewel ik mij afvraag hoeveel nut het heeft. Zie de physx kaarten van vroeger, physics draaien nu op GPGPU, brigadier draait op GPGPU, huidige post processing fx draaien op GPGPU, waarom nu plots andere hardware? (ray tracing zal sneller gaan, maar als die cores niets staan te doen voor de rest van de frame is dat natuurlijk wel jammer. Time will tell :) )
Ik heb dat ook gedacht, ik heb een betere grafische beelden gezien zonder RTX stuff. Ze hebben het gewoon bewust omlaag geschroefd of weggelaten. RTX zal wel preciezer zijn dan huidige manieren uiteraard, maar niet dat het niet mogelijk is.

Kijk bijvoorbeeld naar star citizen.
Uiteindelijk is het gewoon een nieuwe DirectX feature, niets meer, niets minder. Echt overhyped.

https://blogs.msdn.micros...osoft-directx-raytracing/

[Reactie gewijzigd door MrFax op 25 juli 2024 04:35]

.oisyn Moderator Devschuur® @MrFax21 augustus 2018 12:12
Ja, zo kan je elke vooruitgang wel downtalken. Hardware rasterization? Is gewoon een DirectX feature. Hardware T&L? Gewoon een DirectX feature. Programmable shaders? Gewoon een DirectX feature. |:(

Het is een DirectX feature omdat je een abstractie API nodig hebt om nieuwe functionaliteit aan te spreken. Het is niet dat omdat het een API feature is, het meteen betekent dat het niets voorstelt. Die stelling is quatsch 8)7.

Hardware raytracing is weldegelijk een volgende stap in computer graphics. Natuurlijk zijn de verschillen stubtiel, dat is puur een gevolg van wat er allemaal al mogelijk is. Maar het kan weldegelijk heel wat toevoegen, mits juist gebruikt.

[Reactie gewijzigd door .oisyn op 25 juli 2024 04:35]

ik vrees dat RT er nog steeds voor zal blijven zorgen dat we onrealistische shadows en reflections te onpas zullen zien opduiken in games. Sinds weet ik veel welke gran turismo game zagen we rijdende spiegels en ook hier weer wordt water eerder als een glad oppervlak weergegeven en is er een heel artificieel verschil tussen gerenderde karakters en de omgeving ipv dat die veel beter bij elkaar zouden blenden.
Is dit exclusief voor de nieuwe RTX kaarten of komen kaarten van de vorige generatie (1080 TI)? Zo niet vind ik het ook maar stom...
Ze gebruiken een DirectX standaard voor ray tracing. Er is een software fallback, dus dit werkt op alle hardware. Een goeie driver zal dit in de Compute Queue uitvoeren, iets wat perfect op huidige generatie AMD/Nvidia hardware kan, maar zal nooit zo snel zijn als deze nieuwe RTX kaarten. Beetje zoals bitcoin minen op een GPU of op een ASIC. De vraag is natuurlijk hoe Nvidia deze technologie in hun 1080ti drivers wil implementeren, want ze willen natuurlijk niet concurreren met hun eigen producten.
Heb altijd 100 tot 200 euro betaald voor een midrange kaart: 6850 en jaren terug een R9 290 Radeon gebruikt van een mede tweaker voor 200E. Had mezelf al helemaal 'mentaal' voorbereid om nu een flink bedrag neer te leggen, >699, om de laatste games op hogere kwaliteitsniveaus te spelen op m'n 4K monitor: maar 1250-1400, https://www.alternate.nl/...VIDIA-GeForce/RTX-2080-Ti, zijn prijzen van een andere wereld. Ik heb een behoorlijk fors inkomen maar van dat geld -voor een computer onderdeel- kan ik ook (bijna) twee keer op vakantie.

Ik vraag mij echt af welke tweaker -al heeft hij het geld- zo'n bedrag leer legt voor een onderdeel dat over 2-3 jaar verouderd is?
De gemiddelde persoon kan echt niet van €1200 twee keer op vakantie. En als je dan 10 uur per week gemiddeld speelt (wat nou niet bijzonder is, uurtje per avond, en in weekend ook nog uurtje overdag), voor laten we zeggen 3 jaar lang, dan is het nog geen euro per uur speeltijd. Dat is toch significant minder per uur als jouw vakantie ;).

Dat gezegd hebbende: De vorige generatie had Nvidia al hun prijzen omhoog gekrikt, een GTX1060 zit bijna op de prijs dat een GTX970 zat, en het lijkt erop dat ze dat nog wel een keertje willen doen. Het probleem is gewoon totaal gebrek aan concurrentie. Ik ga het zelf er dan ook niet aan uitgeven, enkel wat interesse in mogelijk een GTX1080TI tweedehands als die wat zakken in prijs (al ben ik bang van niet). GTX1080 zou wel redelijke stap voor mij zijn, maar niet groot genoeg om de moeite te nemen. Toevallig gisteren als optie ook nog eens een Vega64 tweedehands bekeken, immers heb ik een mooi Freesync scherm. Maar ook in nieuwe benchmarks heeft die in genoeg games moeite om met een GTX1070 mee te komen, laat staan een GTX1080TI. Om het nog niet te hebben over recente reviews waar hij uitvalt als je beide power connectoren op één kabel aansluit (die daarvoor bedoelt is, met twee connectoren ook op de kabel). Dus nee, helaas op iets meer dan mid-end is er gewoon geen concurrentie van AMD, en op mid-end heeft AMD afgelopen jaar alles blind naar miners kunnen verschepen.

Over power ben ik trouwens wel benieuwd waar de benchmarks naartoe gaan van deze kaarten. Want euhm, drie power connectoren? Dat is dus nog meer dan een Vega64 (granted, die kan misschien wel er drie gebruiken). Gedeelte zal komen door de VR link die ook power kan leveren, maar dan nog steeds. Ik heb een goede 550W voeding, maar die heeft ook 'maar' twee PCI power connectoren erop.
Drie connectoren? Ik zie twee keer 8 pins
Ik dacht ergens gelezen te hebben dat een gedeelte van de standaard overclocked exemplaren 2x8 pins en 1x6 pins nodig hadden, maar gezien ik het niet zo snel kan terug vinden heb ik dat misschien fout gelezen.
Dacht ik ook altijd. Laatst een keer wel gedacht, ach, waarom niet, en 800+ neergelegd voor een 1080ti omdat ik een 4k scherm had aangeschaft en dat anders niet lekker draaide. Heerlijk. Wat een verschil. Gewoon elk spel lekker op ultra, niet echt hoeven klooien met settings, maar focus op het spel spelen. Wat heb ik al die jaren gemist door een paar honderd euro uit te sparen...2x uit eten, of 2 jaar lang lekker gamen zonder gedoe. Makkelijke keuze ;)
Ik denk altijd zo van, iets kopen waar ik jaren plezier aan heb, of ongeveer net zoveel geld uitgeven aan een vakantie van 1 a 2 weken dat na een tijdje nog maar vage herinneringen zijn.

Geef mij maar iets dat langer nut heeft.
Ik ben 3 weken in Amerika geweest in 2015 en heb daar heel waardevolle herinneringen aan overgehouden. Ja, ik had van het geld ook een dure computer kunnen kopen met de beste videokaart x2 in SLI, maar dat heb ik gelukkig niet gedaan. Iets zien van de wereld, nieuwe vriendschappen opbouwen, dat is mij meer waard.
Dan zou ik wachten op de RTX 2060.
Die komt er niet, wordt een GTX 2060 (zonder Ray Tracing dus)

Geen flauw idee hoe duur die kaart uiteindelijk wordt, maar misschien kan je dan nog beter een 1080 aanschaffen als die in prijs zakt
Gelukkig blijven deze prijzen enkel zo hoog totdat AMD weer competitief wordt. Ze bouwen nu lekker kapitaal op. Of wellicht komt Intel verrassend uit de hoek met hun gpu. We hebben in elk geval concurrentie nodig want Nvidia's prijzen worden elk jaar hoger.
Het is natuurlijk Jensen Huang die ons lekker maakt en waarbij je zijn superlatieven met een korrel zout moet nemen, en natuurlijk komen daar de grafiekjes bij, en de uitleg, en het verhaal erom heen...

... Maar wat werd getoond voor games, was niet minder dan een kleine revolutie in graphics. Eindelijk eens accurate schaduwen die vervagen naarmate het verder van het licht staat (Congrats @.oisyn namens Nixxes!) eindelijk reflecties die op meerdere ondergronden te vinden zullen zijn. Eindelijk microscopische lichtreflecties die mee vervagen.

Toch is het niet geheel perfect. Dat kwam in de Battlefield demo ook naar voren. Pop-in was duidelijk zichtbaar, en hoewel men sprak over hoe raytracing in de gehele scene werkte en daarbij het vliegtuig gebruikte als argument, werd wel duidelijk dat raytracing zich op een kleinere cirkel afspeelt die per frame updatet. Een beetje zoals texture streaming dus.

En dan het verhaal erom heen. Een GTX 1080Ti doet 1.2 Gigarays/s aldus Huang. Weliswaar iets minder dan een tiende van RTX 2080Ti, maar toch, dit doet vermoeden dat DXR Fallback, een emulatie laag voor GPU's zonder hardware raytracing accelerators welke werkt op DirectCompute, ook zo zijn voordeel zal hebben. Toch is dit ook slechts nog een prototype, al blijft het een goede vergelijking om te maken met AMD wanneer beide aan die test worden onderworpen.

Dus wat maken we hiervan? Ik zelf vond het DLSS principe (AI gebruiken voor ontbrekende pixels/anti aliasing) een zeer slimme. Dit is een onderbelicht aspect in gaming en laat goed zien dat AI ook op rendering kan worden toegepast. Tegelijkertijd is er natuurlijk ook een kantteken: Dit werkt echt alleen op Tensor cores vooralsnog, een DirectCompute variant in Direct X (Laat staan OpenGL of bij AMD) is er immers nog niet. Ook komt privacy hier om de hoek kijken: Als het die ontbrekende pixels zal renderen middels een neuraal netwerk, welke informatie van de game heeft zon kaart dan nodig om die ontbrekende pixels ''erbij te plaatsen''? Het introduceren van dergelijke opties introduceert ook nieuwe vraagstukken binnen gaming die voorheen nog niet bestaand waren.

Op meerdere vlakken is Geforce RTX dan ook ''anders'' te noemen. Niet zozeer omdat het nu echt iets nieuws doet (Imagination zegt hallo met Raytracing) maar omdat het meerdere principes combineert in 1 geheel. De komende jaren zal, zeker op het AI vlak, de nodige discussie nog gevoerd gaan worden. Voor gaming is RTX een glimp naar een toekomst waarin rasterizatie, het renderingprincipe van de afgelopen 25 jaar en verder, zal worden vervangen door een variant van wat vandaag werd getoond.
Kan je mij uitleggen hoe de AI met privacy te maken heeft? Dit moet toch gewoon een neuraal getraind netwerk zijn bij NVIDIA dat daarna wordt ingeladen op jouw videokaart als je de game start... Wat mis ik hier?
Er wordt hier gebruik gemaakt van een neuraal netwerk om de ''ontbrekende pixels'' erbij te renderen, of om anti-aliasing te ''genereren''. Om dit te doen zullen de Tensor cores nochtans eerst moeten ''weten'' welke pixels hiervoor nodig zijn. Daarvoor kijkt het naar alle omheenliggende pixels. De vraag is dan wat de Tensor Cores nodig hebben aan informatie om dergelijke pixels te ''genereren''. Immers een neuraal netwerk moet per frame in een aantal miliseconden ''bekijken'' welke pixels erbij moeten worden gegenereerd. Ik neem dan aan dat dit of op de tensor cores zelf gebeurt, of offsite op een platform van Nvidia moet worden gedaan.

In het geval van dat laatste (Want dat is vergelijkbaar met cloud gaming/rendering): Wat heeft Nvidia van je nodig wat dat betreft? Sowieso het soort RTX model wat je gebruikt, maar wat nog meer? Je CPU? Ram? Je moet immers kunnen inschatten hoe lang het nog duurt wanneer het volgende frame zal verschijnen, en dat is afhankelijk van meer factoren dan alleen je GPU. Iemand met een i3 zal er zeker langer over doen dan een Ryzen (Even in het midden latend dat je een Core i3 zou willen combineren met een RTX kaart heh)

Wellicht is bovenstaande domweg een hersendwarrel hoor, daar niet van, maar iets wat mij gelijk te binnen schoot. Een neuraal network/ai moet immers ''leren'' wat iets is voordat het iets kan doen, en Nvidia doet dat dmv het introduceren van een referentiekader totdat het neurale netwerk heeft ''geleerd'' wat het antwoord op de gestelde vraag is.

(Ik mis echter het stukje over het NGU platform en hoe dergelijke info wordt verzonden. Of wacht, was het niet zo dat het NGU platform offsite dergelijke berekeningen maakt en dan voor verdere verwerking naar de tensor cores stuurt?)
Je schrijft zelf dat het binnen millisecondes moet gebeuren, maar standaard ping is al tientallen millisecondes. Het lijkt me ook dat het hele idee van die tensor cores is dat het lokaal gebeurd. Het zou ook een gigantische hoeveelheid data heen en weer sturen betekenen als ze in de 'cloud' anti-aliasing zouden berekenen. Om het nog niet te hebben over de rekenkracht: Zou Nvidia hoop geld kosten dat allemaal voor gebruikers gratis te moeten gaan verwerken.

Dus nee, lijkt mij niet echt waarschijnlijk, en dus ook geen privacy probleem :).

Persoonlijk ben ik ook wel wat skeptischer of het echt een revolutie is. Zoals @miklas schrijft, er zijn ook al technieken om zulk soort zaken te benaderen. En het blijft een trailer, ziet het er ingame ook zo uit op ultra, of zijn het theoretisch in-game beelden, maar heb je een farm van 2080TIs nodig om het daadwerkelijk op minstens 60 fps te renderen.

[Reactie gewijzigd door Sissors op 25 juli 2024 04:35]

Als het lokaal zal gebeuren zal er dus een neuraal netwerk moeten ''inladen'' die dan continue trial and error gaat ''leren'' welke pixels er nodig zijn per frame. De vraag is dan dus: Wat hebben die tensor cores nodig, wat gaat er met die geanalyseerde data worden gedaan? Nu zal dat geen performance penalty opleveren (Daar is immers die Tensor core voor) maar om het te ''leren'' zal het toch iets van data bij moeten gaan houden. De vraag is: Wat wordt dat?

Wat @miklas stelt is dat dergelijke effecten ook op rasterizatie kunnen. Nou ja, in zekere zin wel. Daar is SSR, Light probes, deferred rendering en het hele zooitje voor. Maar wat Raytracing doet is veel ''accuratere'' reflecties weer geven, wat je domweg met rasterizatie niet kan nabootsen. Het is een ''hack'' in de zin dat het er op ''lijkt'', maar een echte reflectie/accurate schaduw tov een hack, dat verschil zie je nu eenmaal.

Wel had ik het beter gevonden als Nvidia de game op max had getoond met alles aan en dan het verschil met RTX te benadrukken. Dat dan weer wel. Toch zie je in de trailer wel dingen die vooral subtiel zijn (De subtiele verkleuring van het wapen van de soldaat wanneer de tank zijn wapen gebruikt) en waarbij dan het metaal een subtiele reflectie afgeeft. Tja, dat kan met SSR worden afgevangen, maar dat laatste is vooral gebruikt voor vloeren en ondergronden. Niet voor bewegende karakters. Dat zijn ''details'' die nu mogelijk worden met raytracing. Hetzij hardwarematig via RTX, hetzij via DXR Fallback (of Radeon Rays). :)
Ivm het neuraal netwerk: dat kan je gewoon lokaal trainen, door bvb tijdens een loading screen een groot aantal frames met Super Sampling te renderen.

Ivm rasterization: klopt zeker, het is een benadering. Maar dat is ray tracing ook (tenzij je een oneindig aantal rays hebt). Maar kijk eens naar games van 2008 en die van 2018. We blijven stapje bij beter realistischer benaderingen krijgen. We gebruiken op huidige generatie gewoon ook al ray tracing in compute shaders (iets waar AMD bvb vele malen harder op inzet tot op dit punt - 13.7 TFLOPS single precision voor compute op Vega64 tov 11.3 op de 1080ti). CryEngine gebruikt bvb ray tracing (in een voxelized versie) van hun scene voor global illumination. Dit is voor mij dus niet meer dan een logische evolutie, geen revolutie. (zeker gezien de lagere modellen geen "dedicated ray tracing" hardware krijgen).

Ivm de vergelijking, @Sneek heeft in zijn post een link naar een aantal vergelijkende gifs.

Don't get me wrong, ik ben voorstander van vooruitgang en van deze hybride approach. Het gros van de scene kan via rasterization snel gerenderd worden, en dan kunnen daar details aan toegevoegd worden mbh pathtracing. Ik zie het gewoon niet als revolutie, omdat we nu vooral marketing aan het werk zien, en dit in feite stappen zijn die al jaren aan de gang zijn.

Ik vraag mij verder ook af tot hoever het nuttig is om dedicated hardware te hebben voor zo'n features. Zie de oude physx kaarten als voorbeeld. De extra kaart was het gewoon niet waard, zeker nu moderne GPU's dezelfde berekeningen via GPGPU kunnen uitvoeren. Maar dat zal de toekomst moeten uitwijzen :)
Neuraal Netwerk: Maar hoe lang zal zon screen zijn? En hoe gaat het alle mogelijke gameplayscenario's ''vooruit'' renderen? Daar is nog geen maatstaf voor domweg omdat dit nog niet als zodanig in games is toegepast.

Rasterization: Dat absoluut, maar raytracing zoals hier getoond is iets ''accurater'' (lol). Wat Cryengine met SVOTI tracht te doen is een aantal ''bounces'' van licht na te bootsen middels ''voxel ray tracing''. Dat is volgens mij iets anders dan het begrip ''raytracing'' zoals Nvidia dat hier bezigt, al doen beide veelal eenzelfde ding (Rays tracen). Tenminste, daar staat mij iets van bij. SVOTI is ook een bijzonder zwaar ding dus vandaar dat het ook niet heel erg bekend is (Gelimiteerd tot 2 bounces of zoiets)? En daarvoor had Cryengine al een single bounce GI middels Light Propagation Volumes.

Gaan we echter zulke voorbeelden gebruiken, dan past Q Games met diens Cascaded Voxel Cone Tracing met 3 bounces (1 gesimuleerd) op een PS4 erook bij: http://fumufumu.q-games.c...omorrowsChildrenFinal.pdf

Wat echter hier gebeurt is dat dit op een hardwarematige stuk ASIC wordt gedaan ittt tot op de GPU.

(En ja, logische evolutie/revolutie.. Voor de programmeur is het het ene, voor de gamer het andere. ;))

Hybride rendering is domweg het ''tussenstapje'' tussen volledig weggaan van rasterizatie en het soort ''film'' rendering wat je in wel.. films :P ziet.

Wat vooral opvalt bij de dieshot is hoe de Turing SM een super complex ding is, en dat RT en Tensor cores allebei nog ''apart'' in de chip zitten. Het is dus niet geheel onlogisch dat met de jaren heen deze twee worden gecombineerd met de SM. :)
Lokaal leren: (ook als antwoord op @MauricevL): Kijk eens hoe Octane Renderer AI inzet voor de-noising & lighting.
Toegegeven, AA is niet hetzelfde, maar ik wil maar aantonen dat het niet persé voorgebakken data nodig heeft om zijn ding te kunnen doen. Octane werkt gewoon op dynamische scene's, en dus na een paar frames nadat een artist e.g. een lichtbron toevoegt of verplaatst.

Volgens mij is raytracing, raytracing. Het verschil is dat bestaande technieken het moeten doen op een versimpeling van de scene (millioenen voxels tov miljarden triangles). Met de RTX kaarten zien we nu gewoon betere hardware, die de versimpling van de scene niet meer nodig maakt (maar nog steeds maar beperkt wordt ingezet, voor een aantal zaken zoals reflecties). In een volgende serie kaarten zien we mogelijks dat er nog meer/beter hardware aanwezig is en nog meer van de rendering pipeline naar ray tracing wordt omgezet. Met andere woorden: evolutie.

Ik weet niet of rasterization ooit weggaat. Het blijft gewoon veel efficienter (maar inderdaad minder accuraat). Maar voor het gros van de scene's, zeker in de verte, kan perfect op deze manier gerenderd worden. Zeker als we bewegen naar hogere resoluties (4k+), hogere framerates (144+), grotere levels, mobile devices, ... gecombineerd met Moore's law die afzwakt, zie ik het nog zeer lang bestaan als optimization. Time will tell :)
Toch zal zon neuraal network dat eerst moeten kunnen ''zien'', lijkt me.

Het soort ''raytracing'' wat in de voorbeelden wordt aangehaald lijkt mij iets anders. Wat RTX doet is bepaalde problemen die domweg alleen ''benaderbaar'' zijn met rasterizatie, op te lossen door een raytrace element te introduceren. Zoals AO, schaduwen, reflecties. Dingen waar een RT van nature sterk in is en een peulenschil tov SSR of cubemaps. Daar staat dan tegenover dat zon benadering veel rekenkracht kost.

Ik zei ook een ''kleine'' revolutie he ;) Van hacks die natuurlijke reflecties ''benaderen'' naar ''natuurlijke'' reflecties is domweg een flink verschil. Maar dat is een semantische discussie. Als we echt werkelijk alles willen doen zoals de realiteit dat voorschotelt dan kijk je al eerder naar Photon Raytracing die licht op atoomniveau simuleert.

Uiteraard zal rasterization nog lang bestaan - Heck, we doen nu al 30-40 jaar met de tech! Maar hybride rendering zoals RTX is het eerste ''tussenstapje''. En zeker voor aspirerende artiesten is het gegeven dat nu ook consumentenhardware raytracing kan hebben een boeiende. Tegenwoordig worden hele films al met UE4 in elkaar gedraaid - RTX en andere alternatieven zorgen ervoor dat de kwaliteit van deze indie films omhoog zal gaan. Immers, je hebt minder dure hardware nodig om bijzondere resultaten te boeken. :)
Ik denk dat het zeer onwaarschijnlijk is dat de tensorcores ingezet gaan worden om lokaal te leren, ze zijn vooral ook erg nuttig om snel een al geleerd model toe te passen.

Een game ontwikkelaar of een ontwikkelaar van een engine heeft tijdens het ontwikkel process veel betere mogelijkheden om goede neural networks af te leveren. Die ontwikkelaar kan vele duizenden uren aan beeld materiaal van de game renderen met 10x zoveel rays, op 4k resolutie. De upscaling functie die het NN leert leveren ze vervolgens gewoon als een soort shader mee in de game.

Lokaal "tijdens de cut scenes" even een een neural network bij laten leren zit er écht niet in. Het leren zelf, van een complex neural network, gaat daar (ook op deze kaarten) al te langzaam voor - laat staan dat de kaart tijdens die cut scene ook nog dat beeld materiaal kan genereren.
Maar als er lokaal wat data wordt bijgehouden, wat maakt dat uit voor privacy? Ik maak me ook niet druk erover wat mijn RAM geheugen met mijn data doet. Om eerlijk te zijn lijkt het mij een beetje een vergezocht probleem.
Maar wordt het wel lokaal bijgehouden? Dat is wat ik mij afvraag. Dat neurale netwerk moet ook ergens vandaan komen, dat zal echt niet per game door een gamedev worden bijgehouden, dus ik vermoed dat dit dan op driverlevel gebeurt? Ik zou dan zeggen via een ''profiel'' net zoals dat nu met games wordt gedaan.

RAM is geen neuraal netwerk of AI gerelateerd, maar daar ging het mij ook niet om :)
Zelf ben ik totaal niet bekend met dit soort dingen. Heb net de live stream zitten kijken en interperteerde het als volgt;

Nvidia traint een nuraal netwerk op eigen supercomputers (bijv. voor een specifieke game), vervolgens wordt het al getrainde netwerk gebruikt op je nieuwe RTX plankje om wat pixels in te vullen. Ik vraag mij af of er dan nog lokaal sprake zal zijn van "leren" omdat het netwerk al getraind is. Volgens mij is er dan enkel sprake van "uitvoeren/toepassen" van het netwerk.

[Reactie gewijzigd door robinski16 op 25 juli 2024 04:35]

Dan zou een game specifiek zoiets moeten ondersteunen. Nu zijn die ''DLSS'' titels aangekondigd (Zoals Serious Sam 4) - https://www.nasdaq.com/pr...ster-games-20180820-00653 maar dan zou het ''per game'' moeten worden gedaan. En dan nog is het maar de vraag of zon neuraal netwerk ''profiel'' alle mogelijke scenario's nabootst. Dat lijkt mij een redelijk heftige taak.
Zie vanaf 02:45:00 https://www.twitch.tv/videos/299680425. Volgens mij zat ik er niet ver naast
Met dank voor het linken! De hele presentatie gezien, maar je mist nog wel eens wat :)
Hopelijk krijgt het lessen van buiten af, en is het dom in zijn eentje.
Ala driver updates krrijg je Tensor-lesson's update's
Of heeft het al genoeg geleerd en kan het (bijna) niet meer extra leren.

Ergste geval moet je ook nvdia experience draaien, zodat data heen en weer kan na/voor elke game sessie. :r (Heb het zelf namelijk ook niet dat er onnodig data heen en weer gaat, zeker als het verplicht wordt.)
Logischerwijs wordt het via een driverupdate gedaan. Echter blijft dan de vraag uit welke informatie zoiets moet bestaan. Immers, een lokaal ''profiel'' wat door Nvidia's netwerk is ''geleerd'' zal hoogstwaarschijnlijk echt niet alle scenario's in pacht nemen die je in een game kan veroorzaken. Dus hoe dan? Leren de tensor cores ''bij''? En als dat zo is, waar kijken ze dan naar en wordt dergelijke data dan weer niet teruggestuurd naar Nvidia (Zodat zij hun eigen supercomputer netwerk kunnen ''trainen''?)
Drivers voor videokaarten worden ook geoptimaliseerd voor bepaalde games. Men kan bij de drivers ook gewoon de neural networks leveren als onderdeel van de GeForce experience en dan hoeft jouw GPU alleen nog maar de input door het model te sturen om de output te verkrijgen. Het neural network model zelf is dan een blackbox..

De meestal email clients hebben ook AI aan boord in de vorm van bayesian (zelf lerende) filters.
Doormiddel van false and positive feedback leert het systeem beter scam herkennen..

Daarnaast verbaas ik mij wel altijd dat een groot aantal personen welke proberen op hun privacy te letten, dan weer wel Google Mail gebruiken, waarbij Google jouw complexe mailbox verwerkt middels AI modellen. Da's prima, maar zodra een game jouw gameplay zou 'delen', dan is ineens de wereld te klein..
En wellicht dat zoiets hier ook aan de orde is, maar ik wil ''meer'' weten. Wat doet dat neurale netwerk nu precies voor games? Het is natuurlijk nog vroeg dag, maar ik hoop dat Nvidia hier later duiding aan gaat geven. Zeker aangezien we met ''AI'' en ''lerende'' netwerken te maken hebben, ben ik van mening dat deze vragen ook gesteld moeten worden, ook al was dat voorheen binnen games geen vraagstuk.
De AI wordt ‘getrainend’ bij Nvidia. Daarna worden patches door middel van drivers naar users gestuurd. Het proces gebeurt lokaal en heeft niets met privacy te maken.
Oftewel zon ''patch'' zou alle mogelijke situaties in pacht moeten nemen. Dat lijkt mij een redelijk lastige zaak om af te vangen. Om niet in herhaling te vallen verwijs ik je naar deze reactie die ik zojuist heb gemaakt: Redneckerz in 'nieuws: Nvidia brengt GeForce RTX 2080 Ti, RTX 2080 en RTX 207...
Nee het feit dat je een neural netwerk trained betekend juist dat je niet alles situaties in pacht moet nemen.
Eh, jawel, want wat als je nu als speler besluit iets te gaan doen waar dat neurale netwerk niet op is ingesteld? Buiten de limitaties van de map geraken, of allerlei items spawnen. Dit zijn ''uitzonderlijke'' situaties die je dan ook af moet vangen.
Dit privacy kopje is trouwens wel interessant, gezien er supercomputers gebruikt worden om een zo goed mogelijk model te maken dat goed pixels kan gokken is er zeker baat bij voor Nvidia om veel data te hebben. Pas in de recente jaren hebben ze Nvidia Geforce Experience geintroduceerd, dat min of meer verplicht is voor gebruikers van een Nvidia kaart om up-to-date te blijven met drivers.

Ik zou het zomaar zien gebeuren dat een deel van de computaties (uitkomsten daarvan) per gebruiker teruggekoppeld wordt met de centrale van Nvidia om het AI-model nog beter te maken. Zoiets als wat Google doet met zoekresultaten/GPS locaties.
GeForce experience is helemaal niet min of meer verplicht. Je kunt gewoon zelf voor je drivers zorgen.
goed verhaal, maar de opmerking omtrent privacy bij het neurale netwerk is echt grote onzin en bangmakerij.
Nou ja, bangmakerij is ook weer wat heftig gesteld. Ik vind wel dat zodra we het gaan hebben over AI, neural netwerk en ''lerende'' dingen, dat we dan ook wat aannames mogen maken die wellicht wat minder toepasselijk zijn, zeker op het gebied van graphics.

Zoals gezegd het was een hersendwarrel, maar omdat het een implicerende opmerking is het dan maar als ''grote onzin'' af te doen vind ik ook weer wat. Val het argument aan met tegenargumenten, niet met dooddoeners. ;)
Samenvatiing:
- Alle kaarten worden duurder.
- Raytracing is met of zonder RTX niet foto-realistisch (rays kunnen maar 1 á 2 reflecties diep getraced worden omdat de benodigde rekenkracht exponentieel stijgt) maar ziet er beter uit dan zonder.
- Nieuwe melkkoe: getrainde nets los aanschaffen
- Nieuwe melkkoe: alle nets worden door NVidia getraind (dat zal niet gratis zijn)
- (Mogelijk) nieuwe melkkoe: alle trainingsdata wordt geheel/gedeeltelijk eigendom van NVidia (speculatie).
1. yup
2. Trace depth is niet echt een groot probleem en die exponentiele stijging klopt niet. Raytracing word duurder naar mate je meer pixels en meer samples doet. De trace depth is een manier om een limiet te stellen op hoe lang je renderer op 1 pixel bezig blijft, maar in de praktijk gebeurt het maar zelden dat je 3+ reflecties diep zit. Zelfs in filmproductie doen we vaak niet meer dan 5 of 6 bounces. Er zijn al bijna geen situaties waar de 4e bounce echt een verschil maakt (in rendertijd noch visuele kwaliteit).
3. Getrainde nets los aanschaffen? Waarom zouden ze dat doen? Deden ze ook niet met SLi profiles, of geforce experience settings.
4. Waarom zou dat niet gratis zijn? De kosten zullen wss verwaarloosbaar zijn en het lijkt me niet makkelijk om gamers te overtuigen van een extra aanschaf nadat ze al 1250 eur voor een kaart hebben neergelegd. Game/hardware reviewers zouden het massaal uitspugen en benchmarks/kwaliteit vergelijkingen met concurrentie zouden die AI nets helemaal links laten liggen.
5. Worden? Die zijn in de eerste instantie al van NVIDIA. Ze maken het tenslotte zelf op hun servers.
2. Als je het foto-realistisch wilt doen zal je bij elke bounce weer bij het begin moeten starten met als startpunt het raakvlak/punt van de 1e ray. Je kan natuurlijk gaan simplificeren door vanaf dat punt alleen rays naar lichtpunten en/of sterk reflecterende oppervlakten te nemen, maar dat levert niet een foto-realistisch resultaat. Een andere optie is om niet alleen vanaf de waarnemer maar ook vanaf elke lichtbron te tracen, maar ook dat is een simplificatie.
3. Dat zegt mijnheer Nvidia zelf in de video, getrainde nets zijn te betrekken van Nvidia. Dat dat gratis zal zijn wordt niet genoemd.
4. idem/zelfde punt.
Even voor de duidelijkheid; de neurale processor is niet bedoeld voor eindgebruikers maar voor game-/andere-producenten.
5. zie video, klanten (lees dus bedrijven) kunnen nets bestellen door data aan te leveren.
Er is geen sprake van gebruik van de neurale procressors door eindgebruikers, noch van eneige mogelijkheid om mbv je dure RTX zelf een net te trainen. Maar latere mogelijkheid tot zelf trainen of hobbymatig gebruik wordt ook niet uitgesloten in de video, time will tell..
Uiteraard wil NVidia de mogelijkheid aanbieden on neurale netwerken te trainen voor indie developers, die niet de noodzakelijke renderfarms hebben. Maar dat ze het aanbieden wil niet zeggen dat het de enige mogelijkheid is.

Evengoed, wie momenteel een neuraal netwerk wil trainen heeft ruwweg twee opties. óf je ontwerpt je eigen chip (zoals Google), of je koopt NVidia kaarten. In AI is NVidia heer en meester. Dat geldt niet alleen voor video, zelfs in audio is dat de norm, en alle andere neurale netwerken.
2. Als je het foto-realistisch wilt doen zal je bij elke bounce weer bij het begin moeten starten met als startpunt het raakvlak/punt van de 1e ray. Je kan natuurlijk gaan simplificeren door vanaf dat punt alleen rays naar lichtpunten en/of sterk reflecterende oppervlakten te nemen, maar dat levert niet een foto-realistisch resultaat. Een andere optie is om niet alleen vanaf de waarnemer maar ook vanaf elke lichtbron te tracen, maar ook dat is een simplificatie.
Wat jij beschrijft is volgens mij global illumination door middel van path tracing, waarbij rond elke ray/object intersectie een benadering van de contributie van inkomend licht uit alle richtingen wordt berekend. Dat is simpelweg onmogelijk te berekenen, zelfs met een trace depth van 2. Path tracers gebruiken daarom een vorm van monte carlo sampling (random sampling) waarbij in elk frame maar een heel beperkte subset van rays wordt berekend, en het beeld als het ware convergeert in kwaliteit naarmate hetzelfde frame meerdere keren wordt gerenderd (dit levert de noisy plaatjes op de je typisch bij path tracers ziet). Er zijn inmiddels geavanceerde temporele anti-aliasing technieken die deze noise er behoorlijk goed uit kunnen filteren door gebruik te maken van vorige frames en predictie van volgende frames, waardoor je zelfs als op een GPU zonder dedicated RT hardware behoorlijk nette path-tracés beelden kunt genereren in real-time.

Deze kaarten zijn gewoon een volgende stap in de ontwikkeling, en ik vermoed dat we al met deze generatie innovatieve toepassingen gaan zien die de juiste constraints kiezen om volledig path-traced graphics mogelijk te maken die onmogelijk via rasterization hadden gekund. :9

[Reactie gewijzigd door johnbetonschaar op 25 juli 2024 04:35]

Nou dat wordt veel 'oude' gpu's op v&a!
De 1080Ti zal zeer waarschijnlijk teruggaan naar de oude prijs dus ~700 eur. De Nederlandse prijzen van de RTX generatie en met name de Ti versie zijn krankzinnig hoog, €1300 voor een cheapo turbine van ASUS...de EVGA Ultra kost maar liefst €1400. Absolute waanzin!
Klik: https://azerty.nl/search-...ing=12&limit=12&view=grid
Als er nog een Titan Turing uitkomt, kun je gerust €2k prijskaartje verwachten. Ze hebben het al geflikt met de Titan V voor €3k.

AMD / Radeon Technologies Group moet nu echt wakker worden, niet alleen naar 7nm overstappen maar echt teruggaan naar de tekentafel en iets goeds bedenken wat minstens de 2070 kan evenaren en daarbij geen 400W gaat verbruiken, anders kunnen wij over 2 jaar €1000 betalen voor een GTX/RTX 3080.

[Reactie gewijzigd door 454232 op 25 juli 2024 04:35]

Klopt, maar dan 'moeten' wij wel met z'n allen ook AMD steunen en hun kaarten kopen. Anders is het snel gedaan.
AMD is nu al een tijd lang ondersteund doordat alles was ze produceren tegen hoge prijzen direct naar miners kon gaan. Ik hoop toch dat ze met die inkomsten wat zinvols hebben kunnen doen (maar ik ben bang dat het nog een hele tijd kost voor AMD weer competitief is in de high-end GPU markt, als het al gaat gebeuren).
MD is nu al een tijd lang ondersteund
AMD zag dus niks van de hogere prijzen. het verschil tussen MSRP en de winkel prijs ging allemaal naar de retailers.
Dat zou dan wel heel stom van AMD zijn. Maar zelfs als ze niet van hoge prijzen hebben geprofiteerd, dan nog steeds hebben ze minstens een jaar lang hun productie maximaal kunnen draaien en alles direct verkopen.
stom? Als ze achteraf officieel de prijzen hadden verhoogt zou dat een PR nachtmerrie zijn geweest.

En ook volle productie valt tegen, want de miners markt kan je niet vanuit gaan. je besteld zo'n 6-9 maanden van te voren hoe veel wafers je wilt hebben. in 6-9 maanden kan binnen mining heel veel gebeuren, inclusief het compleet instorten van die markt. Als je dus je productie enorm verhoogt loop je het risco dat je met een enorme voorraad blijft zitten die je ineens veel moeilijker kwijt kan.

AMD had gewoon niet de middelen/reserves om dat risico te lopen. plus dat ze zich daar al eerder aan gebrand hadden. Deze keer hield de hype wel lang aan, maar ja, dat weet je niet van te voren.
Ik vraag me af hoe groot die pr nachtmerrie zou zijn vergeleken met die er al is/was. En de extra inkomsten zouden ze goed kunnen gebruiken. Maar goed, we zullen het nooit weten.
Anoniem: 669783 @45423221 augustus 2018 05:34
Denk niet dat dit gaat lukken op de korte termijn. De stap naar een kleinere die size waarschijnlijk wel, maar concurreren in het high-end segment is ze met de RX serie helaas nog niet echt gelukt. Als ze zich focussen op de TDP van hun chips kunnen ze van dat heethoofd imago af, maar de consument wilt alleen maar FPS helaas...
Denk dat dat behoorlijk mee zal vallen, en denk ook dat er teveel mensen prijzen gaan vragen waarvoor je nu ook de huidige generatie nieuw kunt kopen (omdat men indertijd dus veel meer neer heeft moeten leggen vanwege de achterlijk verhoogde prijzen).
1259 EUR voor een RTX2080Ti FE, ik houd mn hart vast hoeveel de AiB's zullen vragen voor hun custom varianten. Ik zie Asus al z'n Strix 2080Ti voor 1500 EUR verkopen. :X
Ja het hele idee van FE's was zodat AiB's hun modellen voor MSRP zouden verkopen, maar we hebben met Pascal gezien dat ze daar geen zin meer in hadden en juist meer vroegen voor hun custom varianten. Tenzij Nvidia ze gaat dwingen voor MSRP te verkopen of we insane benchmark resultaten gaan zien wordt het een langzame adoptie voor Turing.
EDIT: De prijzen zijn door Azerty geplaatst en mijn vermoeden lijkt waar te zijn: https://azerty.nl/nvidia_geforce_rtx

[Reactie gewijzigd door Tim2010 op 25 juli 2024 04:35]

Tim2010,

Wacht nu even af. Een FE wil je toch niet kopen wel? De gewone rtx2080ti moet 999 dollar kosten.

Dat zal omgerekend wel een 1000€ zijn, maar dat koste de 1080ti ook in februari dit jaar, en mensen kochten die massaal.

Ik wacht op de RTX2070, die zou 499 dollar moeten kosten, en verwacht deze rond de 500€ binnen een paar maanden leverbaar. En als we de man mogen geloven, is die sneller dan een gtx 1080ti en niet enkel in RTX.

Helaas lijkt AMD verder weg dan ooit. De RX komt gewoon niet meer...een 580 kan net een 1060 bijbenen. En de Vega is een grote stroomvreter helaas. Ook veel te duur. Nu komen de nieuwe Nvidia kaarten uit, en staat AMD op een echt grote afstand...ziet er niet zo goed uit.

AMD kan alleen nog maar de prijzen verlagen, en dan hopen dat ze verkopen. Gelukkig hebben ze nog de consoles anders zou het helemaal een drama zijn.
De RTX 2070 kan op geen enkele wijze in situaties zonder raytracing sneller zijn dan een GTX 1080ti. 2304 cuda cores op 1700 Mhz van de 2070 halen het niet tegenover de 3584 cores op 1582 Mhz met een hogere geheugenbandbreedte.

Je mag zelfs hopen dat de RTX 2070 de GTX 1080 nog wel evenaart met minder cuda cores en bijna gelijke kloksnelheden.

De marketing van nVidia heeft weer zijn vruchten afgeworpen met de uit de duim gezogen RTX-OPS. Hierdoor lijken de nieuwe kaarten velen malen sneller dan de vorige generatie omdat de snelheden van de Raytracing Cores en Tensor Cores meegenomen worden.

[Reactie gewijzigd door Maxkarmax op 25 juli 2024 04:35]

Dat hoeft niet perse waar te wezen. Immers, 704 Vega cores van de nieuwste GCN generatie leveren een vergelijkbaar aantal Teraflops op als de 1152 cores van een PS4 (1.76 om 1.84). En dat is allebei GCN (Weliswaar met 2-3 generaties aan verbeteringen, maar toch). Tflops is natuurlijk geen harde basis, maar dient in dit geval puur ter demonstratie dat Minder, modernere cores dezelfde theoretische Tflop performance kunnen genereren als je meer cores van een oudere generatie hebt.

Daar staat dan wel tegenover in dit geval dat het niet al te logisch is dat een 2070 een Ti van de vorige generatie verslaat. Een 1070Ti en een reguliere 1080, wellicht, maar een 1080Ti? Dat zou dan aangetoond moeten worden in benchmarks in September.
Het verschil in Teraflops tussen de PS4 en een Vega 11 in een R5 2400G komt voort uit het verschil in kloksnelheden. Zo heeft de GPU van de PS4 een kloksnelheid van 800 MHz en een Vega 11 in de R5 2400G een kloksnelheid van 1250 MHz.

Beide zitten in dezelfde functie voor de berekening van het aantal Tflops
peak floating point throughput = shaders * 2 * clock frequency

704*1250*2 = 1,76 Tflops
1152*800*2 = 1,84 Tflops

Wat nVidia doet is het aantal TFLOPS en TIPS van alle verschillende cores: RT, Tensor en Cuda bij elkaar op te tellen waardoor de kaarten tot wel 6x sneller lijken.

[Reactie gewijzigd door Maxkarmax op 25 juli 2024 04:35]

Klopt. Daarom geloof ik ook niet dat een mid-high end kaart als de RTX 2070 een Ti kan voorbijsteken, maar ik kan het wel plausibel vinden dat 2304 Turing cores uiteindelijk meer performance opleveren dan oudere kaarten, puur vanwege efficientie verbeteringen.

Overigens vind ik (maar dat terzijde) Nvidia's ''RTX-t-OPS'' (Volg je het nog) te simplistisch en wel om de reden die je aan het eind van je post beschrijft. :)
Die mid-end kaart is alleen veel beter als alle extra cores wordt benut, die 1080ti moet raytracing simuleren of met grof geweld berekenen, maar die 2070 heeft en RT-cores en heeft AI-cores om beelden samen te voegen die tegelijk zijn berekent.

Ik betwijfel in hoeverre deze kaart red met oude spellen, waar geen van deze opties actief zijn.
Ook vrrag ik me af in hoeverre deze opties met terugwerkende kracht geforceerd kunnen worden.
(kan de AI weten hoe RT te gebruiken zonder dat het goed is voorgeprogrammeerd en kan het nog steeds sommige dingen simultaan berekenen en dan samenvoegen van nature, of te wel hoe "dom" is de kaart in alle oude games)
Heb ik dan iets anders beweerd dan? ;) Kaarten zoals de 1080Ti zullen terugvallen op DXR Fallback, welke raytracing emuleert via compute shaders.

Ik verwacht zeker GTX 1080 (non-Ti) performance als we alle nieuwe snufjes weglaten. Wat betreft backwards compatible raytracing: Dat lijkt mij niet, omdat dergelijke instanties op renderer niveau gebeuren. Men zal dus een patch met een hybride renderer moeten uitbrengen om Raytracing optioneel te maken, voor oude spellen geld dit niet (Tenzij nog gesupported, zoals oudere Battlefields, etc)
Dat is wat ik ook dacht, totdat hij in de stream letterlijk zei dat de 2070 meer performance heeft dan een titan xp, (hij zei niet RTX performance)

EDIT: meerdere artikels op verschillende sites vermelden ook al dat de 2070 sneller is dan de titan xp en dus 1080ti

[Reactie gewijzigd door marrummer op 25 juli 2024 04:35]

Post eens wat linkjes? Ik had toch echt begrepen dat het hier over ray-tracing performance gaat. De reden waarom hij dat niet meldt is omdat 4x sneller beter klinkt dan 10% sneller.
De RTX 2070 zal alleen sneller zijn in raytracing en een paar AI applicaties omdat de kaart beschikt over RT en Tensor cores. In games en applicaties die hier niet gebruik van (kunnen) maken zal de Titan XP veel sneller blijven met 1536 extra cuda cores op een iets lagere frequentie.
en? die gast heeft ook een keer geclaimed that een nieuwe generatie 10 keer sneller was als de oude.

marketing math heet dat.
Met deze aankondiging van Nvidia, is het nog maar te vraag of AMD de consoles nog lang heeft.
Dit soort GPU's zijn veel te duur voor in een console. AMD wint juist op prijs en voor een Sony of Microsoft is dat een grote factor. Die steken veel liever een midrange GPU in een console zodat ze die console voor 300 euro op de markt kunnen zetten. Met dit soort GPU's koopt niemand een console, die wordt dan veel te duur. Er is zeker nog een markt voor AMD, niet iedereen wil zoveel geld uitgeven voor enkel een videokaart.
Alleen Ray Tracing ziet er wel verdomd goed uit! Als ik AMD was zou ik maar wat resource in Ray Tracing doen zodat ze deze in de PS5 kunnen stoppen.
Meende dat AMD een equivalent heeft op RT aleen dan iets met open-source.
Radeon Rays. Draait op OpenCL 1.2 (En dus op iedere GPU die dit ondersteunt). Volgens mij vergelijkbaar met DXR Fallback, maar hang mij daar niet aan op. - https://gpuopen.com/gaming-product/radeon-rays/
Radeon Rays en is niet met gespecialiseerde hardware maar via de async engines in de CUs
Raytracing is niet iets nieuws van Nvidia. Het bestaat al heel lang. Alle non realtime renderers werken zo. Alleen Nvidia heeft zijn hardware hier nu op toegespitst.
verdomd goed? ja, als je het vergelijkt met een situatie waarbij schaduwen ect geheel uit staan wel ja.
In vergelijking met huidige gangbare technieken is het verschil beduidend kleiner.

maarja, dat zou niet zo'n wow factor geven waar nvidia het van moet hebben.
AMD heeft de consolemarkt in de pocket. Hun technologie is "goed genoeg" daarvoor, en heeft als enige de technologie waarmee Sony en Microsoft backwards compatible kunnen blijven. Daarnaast bieden ze aan Sony en Microsoft aan om compleet custom chips te maken (inclusief - heel belangrijk - het CPU-stuk), iets wat Nvidia nog nooit gedaan heeft voor een consolebouwer.

De pc-markt zijn ze kwijt. Er komen geen nieuwe consumenten-Radeons uit in 2018 - met de Vegas en de RX5xx moet je het blijven doen.
Zolang AMD de enige is die CPU+GPU op dit performance niveau kan leveren, en consoles vooral goedkoop moeten zijn en niet per se cutting edge... Hoeft AMD zich daar echt geen zorgen om te maken.
Nvidia heeft ook enkel maar ARM SOC's. De PS en Xbox draaien nu al 1,5 generatie op x86.
Game developers waren in het verleden gewend aan echte exoten. Denk bijvoorbeeld aan Sony's Cell processor. Een moderne ARM lijkt stieken best veel op een x86. Uniform geheugen, normale instructie-set, zelfs Little-Endian. Goed, geen AVX, maar daar staat NEON tegenover.

NVidia heeft dus een realistisch aanbod met een ARM SoC. Backwards compatibility doe je desnoods via streaming.
Tuurlijk. AMD is namelijk (Zover wij weten) veel minder bezig met Hardwarematig raytracing. Wat zij wel hebben is Radeon Rays, onderdeel van hun GPUOpen platform. Deze doet raytracing op een vergelijkbare manier als DXR Fallback, alleen vereist Radeon Rays ''slechts'' OpenCL 1.2. - https://gpuopen.com/gaming-product/radeon-rays/

Daarnaast is AMD veel meer gefocust op het aan de markt brengen van hun Vega hardware op meerdere platformen. Zo is er Ryzen Embedded welke in de Udoo Bolt bordjes zit en in de Smach Z handheld. Zo is er ook de Subor Z+ PC en console, een gloednieuwe SoC met Vega GPU en 8 GB GDDR5. En uiteraard de bekendere Kaby Lake G hybrides, al zijn die meer een kruising van Polaris en Vega technologie aan elkaar heen geregen. En de huidige consoles, natuurlijk.

Nvidia heeft op dergelijke vlakken de succesvolle Switch en (in mindere mate) diens Jetson bordjes. Al zijn die laatste weer minder geschikt voor gaming. Maw Nvidia speelt het spel van State of the Art op dit moment, terwijl AMD meer het Oprah Winfrey-effect tracht na te streven (''Everyone gets AMD Graphics!'')
Anoniem: 1071831 @Mindfree20 augustus 2018 21:09
AMD leverd goede concurrentie alleen is het niet zo dat ze tegelijk kaarten gaan lanceren.

Ik vind deze RTX niet echt indrukwekkend gezien ze alleen beter zijn in RT, er zijn geen RT games beschikbaar en dat gaat nog wel lang duren zeker de RT zoals je in de demo’s zag dat gaat nog jaren duren.

Zoals ik hieronder al zei is de prijs wel indrukwekkend hoog, ik wacht wel even op AMD eind 2018.
Raytracing opzich is juist heel makkelijk meteen te implementeren, er zit nl weinig algoritme in aangezien het niks anders is dan gewoon alle combinaties uitproberen.

Juist voor de half-ass kort door de bocht handige placeholder techniekjes die we hebben/gehad hebben heb je ondersteuning nodig aangezien die niet physisch logisch zijn zoals bv Ambient Occlusion.

Raytracing is als het goed is wat elke developer gebruikt voordat ze de resultaat informatie gaan omzetten in rasterisation en daarbij texturing.

Raytracing is voor de developer juist veel minder werk. (maar voor de hardware van de klant juist weer veel meer.)
Raytracing is lossless lighting, de oude technieken zijn opzich een vorm van compression zodat de klant z`n GPU het aankan.

[Reactie gewijzigd door enchion op 25 juli 2024 04:35]

.oisyn Moderator Devschuur® @enchion21 augustus 2018 23:57
Raytracing is als het goed is wat elke developer gebruikt voordat ze de resultaat informatie gaan omzetten in rasterisation en daarbij texturing.
Kun je uitleggen wat je hiermee bedoelt? Ik kan je alvast vertellen dat er verdomd weinig rays worden getraced in een game. De plekken waar je het ziet zijn voornamelijk collision detection (heeft dus niets met rendering te maken) en wat ray marching door voxel fields of heightmaps hier en daar in shaders voor effecten zoals fogging of screen space reflections.
Raytracing is lossless lighting, de oude technieken zijn opzich een vorm van compression zodat de klant z`n GPU het aankan.
Dit is quatsch. Raytracing is: we gaan voor elke pixel op het scherm kijken welk object het raakt. Rasterization is: we gaan voor elk object in de scene kijken welke pixels het raakt. De ene is dus als het ware een top-down algoritme, en de andere een bottom-up. Beide met hun eigen voor- en nadelen. Het heeft an sich weinig met lighting te maken. Wel is dat met raytracing realistischer te implementeren, omdat je nou eenmaal de daadwerkelijke lichtstralen kunt simuleren door rays te casten.

[Reactie gewijzigd door .oisyn op 25 juli 2024 04:35]

Ja mensen, a.k.a miners, niet de gewone gamingfolk die kocht niet 1080Ti's voor 1000 EUR. Maar de tijd van minen met kaarten is voorbij.
En hij zegt sneller maar dat moeten we maar eens zien. Hij zit heel leuk FLOPS en TIPS te vergelijken maar dat zegt niets over hoeveel FPS je ingame zal krijgen en uiteindelijk is dat hetgene wat er toe doet, raytracing of niet. Dus ik weet niet waar jullie allemaal eruit halen dat ze flink beter zijn voor gaming want dat is nog totaal niet bewezen. We hebben een leuke tech demo gezien en gegoochel met getallen maar geen keiharde benchmarks. Ik ben dus zeer benieuwd naar de reviews van deze kaarten.
Ja mensen, a.k.a miners, niet de gewone gamingfolk die kocht niet 1080Ti's voor 1000 EUR. Maar de tijd van minen met kaarten is voorbij.
Ligt er aan wat je er voor over hebt. Genoeg mensen die het geld er voor over hebben en gamen op 4K kopen zo'n ding gewoon om er mee te gamen. Kom op het forum genoeg builds tegen met een 1080Ti die alleen voor games worden gebruikt.
Als de forum van Tweakers representatief was van de gaming community dan hadden we allemaal Ryzen 2700X CPU's en 1080Ti's in onze PC's. Jij weet net zo goed als ik dat de Tweakers PC building community maar een kleine fractie is van het grote geheel en het grote geheel koopt niet zulke dure kaarten. En Nvidia moet het grote geheel aanboren wil het winst kunnen maken.
Miners zijn weg, dat is een markt dat niet meer terug komt. De prijzen kunstmatig hoog houden denkende "ze kopen het toch wel" gaat niet meer werken. Want de miners zijn er niet meer.

[Reactie gewijzigd door Tim2010 op 25 juli 2024 04:35]

Tuurlijk is dat zo, maar de 1080Ti heeft voor gamers best goed verkocht heb ik het idee. Vergeet niet dat er tegenwoordig genoeg mensen zijn met een goed betaalde baan in de IT die wat ouder zijn en het geld er gewoon voor over hebben. Als je 17 bent ga je zoiets niet zomaar even kopen. De mensen die in de 30 zijn en sinds jonge leeftijd gamen en goed verdienen kunnen zo'n ding prima aanschaffen.

Voor miners was de 1080Ti trouwens niet erg interessant. De 1060 en 1070 waren veel betere deals. Juist de 1080Ti is voornamelijk verkocht aan gamers, niet aan miners.
Hier kun je de stats van steam vinden.

https://store.steampowered.com/hwsurvey/videocard/

Ruim 1% van de gamers heeft een 1080Ti.
Meest gebruikte videokaart is de NVIDIA GeForce GTX 1060 met 12%.
Op plek 12 staan vind ik serieus flink hoog, meer dan gedacht zelfs. Gezien de flinke hoeveelheid van soorten GPU's en dan flink hoger op de lijst staan dan bijvoorbeeld een GTX980 die 2e hands prima te betalen is en al flink lang op de markt is, vind ik dat er meer mensen een GTX1080Ti hebben dan ik dacht.
In het begin niet, maar de 1080Ti werd juist erg aantrekkelijk om mee te minen begin januari, daarom stegen de prijzen ook ineens zo gek toen voor de 1080Ti.
Dit klopt combineer dat met de steam grafieken en je ziet dat dus zo'n 0.5% van die 1.2% daar aan toegekend kan worden.

Hiernaast zijn van die overgebleven 0.7% een groot aantal combo kaarten (gamen en mining op kleine schaal). Vergelijk maar met oude data en marktpercentage van de high end kaarten.
Dit dus. Ik heb van mijn 14e tot 23e 2e hands videokaartjes gekocht. Daarna met een normale it baan altijd mid range nieuw gekocht. Maar ik speel op semi-pro niveau en heb met mijn 1060 videokaart de langzaamste kaart van de mensen met wie ik speel. Ik ben dit keer wel bereid 1000 eur uit te geven aan een videokaart, maar dan moet hij wel een stuk beter presteren (zonder rtx functie). Als dit niet zo is ga ik denk ik toch alsnog een 1080 ti 2e hands halen.
Vergeet de BTW en import niet, 999 USD is eerder 1200 - 1300 EUR.
Hoe kom je daarop? 1000 dollar omgerekend naar euro + 21% BTW is 1055 euro. Verschepen vanuit china naar de VS of naar Europa zal niet zo'n verschil zijn en volgens mij zitten er geen invoerrechten op computeronderdelen.
Als ik zo eens wat prijzen op bestbuy.com en amazon.com vergelijk met prijzen hier dan komt dat ook meer overeen met het BTW verschil dan met die ~20% die jij daar nog eens bovenop wil gooien.
Om even snel te reageren op de prijzen die je suggereert.
De 2080Ti kost hier 1249 euro, de omrekening dollar -> euro is jammer genoeg niet zoals je voorstelt.
Om te vervolledigen, de 2080 FE kost 849 euro en de 2070 kost 639 euro.
...wat een onzin, wat heeft het voor nut om 200 FPS te gamen t.o.v. 100 FPS? (Zelfde verhaal Intel VS AMD).

Je gaat toch niet meer uitgeven dan 350 euro voor een gpu?
Jij misschien niet, maar er zijn genoeg mensen die dat wel doen waaronder ikzelf. Een GPU van ~350 euro is goed als je op 1080p speelt. Maar eens je met hogere resoluties begint zoals UW 3440x1440 en 4k trekt jouw GPU van ~350 euro het toch niet meer.
Ja kijk daar gaan we dus al. En dit is nog een gewone Dual variant. De Strix variant zal dus wel de 1500EUR aantikken.
Wat ongeïnformeerd doemdenken is dit. Dit is hoe de eerste kaarten altijd in de winkels komen. Hij staat er net op, en hij is de eerste, dus het is duur. Dit gebeurt altijd.

De MSRP van de RTX 2080 Ti merkkaarten is $999, dus dat gaat echt geen €1500 zijn. Dat gaat €1050 zijn. Nog steeds bizar duur overigens, maar jij overdrijft wel echt enorm.

[Reactie gewijzigd door unilythe op 25 juli 2024 04:35]

De Asus Strix GTX1080Ti kwam uit voor 900 EUR pre-order, 2 jaar later is de prijs van een 840 EUR met het laagste dat het ooit heeft bereikt was rond de 800 EUR.
Dus waarom zou ik moeten geloven dat het dit keer anders zal zijn?
Als je het verschil niet begrijpt heb je de videokaartenmarkt van het laatste jaar niet gevolgd.

Overigens was de MSRP van de 1080 Ti €799. En moet je nou eens kijken naar deze prijzen: pricewatch: Gigabyte GeForce® GTX 1080 Ti Gaming OC 11G

Jawel, het zat daadwerkelijk op 800 euro toen het uitkwam, precies wat de MSRP zei, en heeft zelfs goed onder de 800 gekost voordat de markt raar ging doen een jaar geleden. Dus de MSRP klopte gewoon.

[Reactie gewijzigd door unilythe op 25 juli 2024 04:35]

Dat is juist het hele punt. De markt is nog steeds raar, het is nooit meer recht getrokken. Daarom verwacht ik geen normale prijzen voor de RTX kaarten.
Daarom zei ik dat je de markt niet goed hebt gevolgd. Al een goede 2 maanden lang is er over bericht dat de mininghype voorbij is en de prijzen langzaam weer naar normaal zullen gaan.

Ik snap ook niet hoe je kan zeggen dat de prijzen niet zijn rechtgetrokken als je toch duidelijk in die link van mij ziet dat dat wel is gebeurd. Die GTX 1080 Ti in die link kost het laagst wat het ooit heeft gekost - €730. En in de grafiek onderaan kan je zien dat het geleidelijk naar die prijs is gedaald over de laatste paar maanden. De markt is gewoon weer normaal, alleen de VRAM is nog ietswat duur maar daar zal Nvidia rekening mee hebben gehouden in de MSRP van de RTX kaarten.

[Reactie gewijzigd door unilythe op 25 juli 2024 04:35]

We zullen zien, ik hoop dat je gelijk hebt maar ik heb er nog steeds een hard hoofd in.
Jij vergeet dat Nvidia nu heel goed weet wat gamers willen betalen voor deze kaarten. Mining hype heeft helaas prijsplafond blijven verhoogd.
Ik zie ook geen reden waarom Nvidia nu de prijs omlaag te berengt. AMD heeft geen alternatief.
GTX 1080 met flinke OC prestaties voor 450 euro is nog wel zeker.
De hogere prijzen zijn al te zien in de hogere MSRP. Dat betekent niet dat de prijzen boven MSRP zullen liggen, en dat is waar we het over hadden.
$999 is de MSRP van de founder's edition of de goedkoopste merkvariant. Helaas tikt de prijs van de grotere/duurdere merken als ASUS en MSI dan al gauw €1300 aan.
Nee, de MSRP van de Founders Edition is $1199, want de founders edition is juist altijd duurder. ASUS en MSI liggen vaak met hun goedkopere varianten redelijk dichtbij de MSRP inderdaad, maar ik heb het dan ook nooit over de duurdere varianten gehad.

Overigens zijn de duurdere varianten echt niet 250 euro duurder dan de goedkopere varianten. Dat is nog nooit gebeurd en dat zou bizar zijn.
Wat ongeïnformeerd doemdenken is dit. Dit is hoe de eerste kaarten altijd in de winkels komen. Hij staat er net op, en hij is de eerste, dus het is duur. Dit gebeurt altijd.

De MSRP van de RTX 2080 Ti merkkaarten is $999, dus dat gaat echt geen €1500 zijn. Dat gaat €1050 zijn. Nog steeds bizar duur overigens, maar jij overdrijft wel echt enorm.
Uh, doemdenken zou ik het niet noemen als Nvidia zelf de kaart voor €1.259,00 list...
Dus jij snapt het verschil tussen de Founders Edition en de merkkaarten niet. Dat kan, maar je zit er daardoor wel naast. Kijk nog eens een keertje naar de prijzen van de niet-FE kaarten bij de buren: https://nl.hardware.info/...real-time-raytracing-live

$999 dus. Dat zijn dezelfde kaarten, maar dan van een merk als ASUS, MSI, Gigabyte, etc. Je weet wel, de kaarten die mensen daadwerkelijk kopen.

[Reactie gewijzigd door unilythe op 25 juli 2024 04:35]

De MSRP van Vega 64 is ook $499. De kaarten zijn in NL nog steeds niet voor €499 te krijgen (omgerekend en incl. btw).
of toch niet...

Edit: dit is de 2080, niet de 2080Ti. mijn fout

[Reactie gewijzigd door secretqwerty10 op 25 juli 2024 04:35]

Dit is een RTX2080, goed vergeleken vriend. Ik heb het over de RTX2080Ti.
Edit: Daarnaast heeft de RTX2080 FE een prijs van 850EUR en deze Asus Strix RTX2080 een prijs van 1050 EUR. Dus ja, ver boven de FE versie.

[Reactie gewijzigd door Tim2010 op 25 juli 2024 04:35]

heb ik net ge-edit ja. merkte het pas later.
Ik hoop dat die prijzen nog gaan zakken anders gaat Nvidia niet veel kaarten verkopen. Niemand wil die prijzen toch betalen?
Zou je denken, helaas is het tegendeel waar en kan nVidia bijna vragen wat ze willen, wordt toch wel verkocht
Dan roep ik iedereen op om deze kaarten niet te kopen, dan kan Nvidia niet anders dan hun prijzen te laten zakken.
De eerste 1080 kosten destijds ook zo een 900 euro in de winkel online. Het is niet verstandig om gelijk een kaart te kopen. Even wachten tot die goed leverbaar is, en er genoeg andere ontwerpen te vinden zijn, en je koopt dan een rtx2070 voor een goede 500€ denk ik.
Pre order is nooit slim, dan betaal je de advies/hoofdprijs.
Even de hype uit je hoofd zetten een paar maand wachten.
Idd die prijzen zijn belachelijk hoog. €499 voor de 2070, kom op zeg, dat is niet eens onder de €500 voor de goedkoopste kaart zoals de 1070 voor de mining gekte wel was. Nvidia mag het vergeten dat ik een videokaart koop >= €500. Never nooit niet.

Nog altijd geen HBM-geheugen op de kaarten. Wat heeft AMD nu twee generaties lang al de bal toch misgeslagen met hun HBM-geheugen. Het is gewoon de reden dat hun videokaarten voor geen meter verkopen omdat HBM veel te duur is met daarbij ook het veel te hoge stroomverbruik natuurlijk. Hoe slecht kan je bezig zijn en ze leren er niet uit want ze blijven het maar gebruiken. En Nvidia kan natuurlijk vragen wat het wil voor hun nieuwe kaarten want totaal geen concurrentie van AMD. En de consument is zwaar screwed.
Dus de RTX 2070 heeft 2304 shader units, de 1070 heeft er 1920 shader units.

[Reactie gewijzigd door solozakdoekje op 25 juli 2024 04:35]

Foutje je hebt gelijk!
De RTX 2070 heeft 2304 Cuda cores.
De GTX 1070 heeft 1920 Cuda cores.
De GTX 1080 heeft er juist 2560.
Ja maar wat is de snelheid van die shader units, de oude Fermi kaarten waren ook 384bit kaarten en die erna 256. Dat zegt dus niks.
Anoniem: 407645 20 augustus 2018 20:35
Er ligt een grote focus op raytracing maar tegelijkertijd moet ondersteuning hiervoor wel geïmplementeerd worden. Leuk om technologie te maken waar enkel jouw producten gebruik van maakt maar vraag me af in hoeverre dit soort soft/hardware tie ins wenselijk zijn.
Buiten dat, ik vraag me af hoe de 1080 TI bv zich kan weerhouden tegenover de 2080 TI zonder al die RT poespas. Ik vermoed namelijk dat de 2080 TI 4K/60+ nog beter zal kunnen in bepaalde games maar over het algemeen verwacht ik grafisch weinig verschillen als je RTX even weg denkt.

Ben wel geïnteresseerd in de nieuwe kaarten en vooral het verschil tussen mijn GTX 1080 vs 2080/TI in benchmarks.
De 2080ti boost clock is gelijk aan de 1080ti. Van de shaders zijn er 21% meer. Dus ik verwacht 21% meer frames.

Hij is nu trouwens ongeveer 75% duurder!!
hij is niet duurder hij is eerder 500 euro goedkoper normaal was er nog lang geen Ti te koop dat duurde een jaar +- voor die uit kwam er was bij release meestel een Titan te koop van 1499
De 1080ti en 980ti waren 700 en 650 usd bij introductie. De 2080ti 1200 usd!
LOL in de presentatie video vertelt de ceo zelf dat het
999 is voor de 2080ti
699 voor de 2080
499 voor de 2070

de 2080ti is gewoon de titan die altijd uitkwam voor 1499 bij release.
en +- een jaar later kwam er altijd een goedkopere van de titan die 1080Ti heete.
de 1080ti kwam nooit uit bij een release maar een jaar later +-
De prijzen kan je dus niet vergelijken met de 1080 en 980 ti. want die waren er pas een tijd later.

en zelfs 1200 euro voor de 2080ti is goedkoper dan de titan topmodel dat altijd bij de release van een nieuwe generatie uitkwam.

Je moet gewoon ff uit je hoofd zetten dat hij nu Ti heet ipv Titan.
Deze 'titan' is anders langzamer dan de Titan V. 5120 cores tov 4352. De titan 5 is 30% sneller dan de 1080ti. Deze 2080ti is maar 20% sneller dan een 1080ti.

De 2080ti is gewoon een Ti en kost 75% meer dan een 1080ti. De 2080ti fe is 1260 euro. De custom kaarten beginnen bij 1250 euro en niet 1000 euro.
Deze 2080ti maakt gehakt van de titan v volgens de ceo heb je er 4 van nodig ;) om dat star wars filmpje te renderen en maar een 2080ti ;) dat is wat de ceo zelf zegt in het filmpje ;)

en een titan V kost 2.9k

[Reactie gewijzigd door BruceLee op 25 juli 2024 04:35]

Deze 2080ti maakt gehakt van de titan v volgens de ceo heb je er 4 van nodig ;) om dat star wars filmpje te renderen
Alleen in Raytracing demo's en games (die er nog niet of amper zijn, en waarschijnlijk ook niet gaan komen in de manier dat het alleen op RTX kaarten kan draaien)

[Reactie gewijzigd door Sinester op 25 juli 2024 04:35]

volgens de ceo heb je er 4 van nodig
ja, als er veel gebruik word gemaakt van ray tracing.

Daar had nzweers en recon24 het dus precies niet over.

[Reactie gewijzigd door Countess op 25 juli 2024 04:35]

Ik denk dat je met het aantal shader units een redelijk lineaire vergelijking kan maken.
Hier is een kleine vergelijking met een prototype build van DXR Fallback die via DirectCompute de DXR demo's emuleert - http://boostclock.com/sho...k-layer-perf-preview.html

Op pure raytracing doet een GTX 1080 71 mMays/s: http://boostclock.com/img...ts/dxr-fb_sponza_diff.png. Dit is dan een Diffuse ray en een Shadow Ray, geen rasterizatie. Huang had het erover dat een Ti 1.2 Gigarays/s doet, maar die bewering wil ik dan wel eens gestaafd zien :)

Let op: Bovenstaande is gedaan met een alpha versie van de Fallback laag en kan dus aan verandering onderhevig zijn. Echter toont dit wel aan dat Fallback potentie heeft, al kan ik de verschillen in performance (71 Mrays voor een non-Ti versus Huang's 1.2 Gigarays voor een Ti) niet verklaren.
Ik denk dat dit zeer wenselijk is, omdat de devs eigenlijk minder moeten doen...ervoor moesten ze trucen toepassen zoals bv. extra niet aanwezige lichtbronnen in donkere scenes, nu zou alles gewoon vanzelf er goed en realistisch moeten uitzien...
Nu wil ik als niet-IT'er niet heel cynisch over komen hoor, maar devs die het zichzelf makkelijker maken door maar gewoon meer geheugen, rekenkracht of nu dus tensor cores ergens tegenaan te gooien heb ik al wel iets te vaak gezien ;). Oké granted, je kan dan met minder budget mooiere spelletjes neerzetten, en dat is wel wat waard, maar of het in de praktijk echt zo'n verschil maakt moet ik nog maar zien. Een losse physics kaart is ook nooit doorgebroken ;).

[Reactie gewijzigd door Sissors op 25 juli 2024 04:35]

Goh ja ik weet het ook niet...afwachten er zullen op youtube veel vergelijkingen opduiken en we zullen rap zien hoeveel games het implementeren...ik hoop vooral dat de devs niet met opzet de niet raytrace modus uit het oog verliezen en de goedkope en oudere kaarten hier onder lijden...maar kvrees er wat voor, en NVidia zou het ook niet erg vinden dat ze hierdoor misschien meer RTX kaarten verkopen...

En werk hebben de devs er ook mee, want reflecties en zo zien er misschien goed uit, maar het origineel moet er ook goed uitzien. Het vuur van Battlefield vond ik zeeeer lelijk. En ook de optische eigenschappen juist toekennen aan alle materialen is flink wat werk...

[Reactie gewijzigd door Clemens123 op 25 juli 2024 04:35]

Ik denk dat het sowieso alleen als extra in games gaat komen net zoals physx, en uiteindelijk zie je het nergens meer

Want waarom zal er veel tijd gestoken worden in iets wat de grootste deel van de markt niet kan gebruiken?
de GTX kaarten van nVidia doen dit namelijk ook niet en die zullen vele malen meer verkocht worden dan de RTX versies
Ik vraag me idd af of het een switch is die ze gewoon aan kunnen zetten. Als devs er te veel moeite in moeten steken, dan zullen de meeste bestaande games er weinig van merken of het moet al een kostelijke DLC zijn. Het label "developed on the RTX platform" lijkt erop te wijzen dat het geen gratis operatie is.

Binnen 2 jaar zie ik wel games die slim gebruik maken van de reflecties om er gameplay elementen van te maken. Bvb een soort Dishonored waar je sneaky de spiegels of waterreflecties kunt gebruiken om vijanden te spotten.

Maar bij vele games zal je de verbeterde beeldkwaliteit enkel merken bij een side by side comparison. De betere schaduwen en fakkelreflecties in Tomb Raider zie je wel met dat logo erbij maar als je er voorbij flitst gaat het verspilde moeite zijn.
Opvallend dat ze de prestaties niet durven vergelijken met de vorige generatie kaarten. Dat doet mij vermoeden dat de verbeteringen niet echt spectaculair zullen zijn - en al zeker niet in verhouding met de aanbevolen prijzen.
Dat vind ik niet gek. Nvidia wil vooral heel erg duidelijk maken dat ray tracing echt iets is dat je moet hebben. Die hele presentatie had daar laserfocus op. Dat vind ik ook logisch: fear of missing out op die nieuwe (nou ja, niet nieuw, maar nu voor het eerst in real time in spellen) techniek verkoopt meer videokaarten dan "nu 140 ipv 110 fps in dit spel". Met de huidige generatie zit je op gewone HD schermen toch al op een FPS die raakt aan de limiet van wat mensen kunnen waarnemen.

[Reactie gewijzigd door HairyWeasel op 25 juli 2024 04:35]

AMD heeft dat soort dingen ook vaker geprobeerd. Zonder succes :P
Maar Nvidia heeft een dikke portemonnee om de spelstudio's om te kopen te helpen met de ontwikkelkosten. Vooral de banden met Epic Games, het bedrijf achter Fortnite en de Unreal Engine zijn goud waard.

En ik zit er zelf niet in, dus ik kan het niet goed beoordelen, maar het werd gebracht als 'eenvoudiger om te programmeren' omdat ray tracing is de gouden standaard is voor realistisch licht. Die ene techniek vervangt nu in de hardware een reeks aan trucs die in de software toegepast moet worden.

[Reactie gewijzigd door HairyWeasel op 25 juli 2024 04:35]

Dat vermoeden krijg ik ook. Ze lieten alleen maar pre-rendered dingen zien, geen benchmarks, totaal geen vergelijkingen met vorige generaties behalve met behulp van hun nieuwe manier van meten, wat dus totaal niets zegt. Voelt erg aan alsof ze snel geld willen binnen harken met pre-orders en dat het waarschijnlijk gaat tegenvallen qua performance.

Maar zelfs als ze dingen wel hadden vergeleken met vorige generatie kaarten is het nog maar de vroeg hoe kloppend zulke vergelijkingen zouden zijn geweest.

[Reactie gewijzigd door Corodix op 25 juli 2024 04:35]

De nieuwe techniek was indrukwekkend maar ik verwacht voor de rest geen grote verbeteringen tegenover de 1080ti.
Ik bedoel hij bleef maar lullen over raytracing zelfs toen iemand anders zun beurt was om te praten.

15% 20% max :*)
Inderdaad. Ik ben bang dat raytracing het enige grote verschil is en het verschil in normale raster randering miniem is. We gaan het zien.
Zelfs als het verschil 50% of meer zou zijn, dan nog zou het niet veel uitmaken. 100 of 150 fps, dat is voor de meesten lood om oud ijzer. Daarom concentreren ze zich op de ray tracing.
Als het verschil 50% is dan zou ik dat nog erg veel vinden, en dan zou ik er nog serieus over nadenken om de 2080 Ti te kopen. Ik verwacht echt veel lager dan dat, omdat ze dit specifiek zo erg hebben vermeden. Ik verwacht maar 20% of zoiets.

Voor mij zal dat verschil zeker wel merkbaar zijn en het waard zijn.

[Reactie gewijzigd door unilythe op 25 juli 2024 04:35]

Nou ja, op 4k zal het nog wel uitmaken. Van 60 naar 90 ofzo.
Ik heb een 1080 ti en nog wat kunnen overclocken. Geloof me dat ik nu al uitkijk naar videokaarten die wel 4k op ultra 60 fps+ kunnen halen. Huidige 1080 ti heeft nog echt wel moeite met drops als gevolg.

Dus als de 2080ti 150% sneller is. Dan teken ik er gelijk voor haha. Ook zie ik echt steeds minder mensen om mij heen die nog gamen op een 1080p monitor. Dat is al tijden 1440p 144hz of 4k 60hz. Laat deze twee nog echt niet makkelijk te renderen zijn met een 1080 ti ;) (bf1, witcher 3 etc etc)

[Reactie gewijzigd door marco-ruijter op 25 juli 2024 04:35]

Ik ben vooral heel benieuwd of de kaarten HDMI 2.1 hebben met VRR Variable Refresh Rate, een soort freesync die in de nieuwe HDMI standaard optioneel zit.

Als dit erin zit is het een mooie combi voor bij m'n volgende TV die dit ook met hebben.

Helaas niks hierover in de presentatie :(
hmmm erg jammer, dan denk ik toch dat ik deze generatie nog maar over sla. Wil m'n HTPC upgraden volgend jaar met een UHDTV, maar ik wil dan dus een videokaart met HDMI 2.1

Wacht dan wel op de volgende generatie of kijken of AMD met wat leuks met HDMI 2.1 komt.
Dat idee had ik ook, maar perse nodig is het ook weer niet. Als je het puur als media center gebruik kan je ook een NUC kopen en gewoon KODI enzo draaien. Wil je gamen heb je aan 2.0b ook genoeg qua resolutie. Alleen VRR en dat soort dingen zijn interessant maar dan moet ook je tv dat supporten en dan heb je dus ook een nieuwe nodig ;) Het is vooral heel toekomst proof maar strict noodzakelijk wil ik het niet noemen. Als je een tv wil kopen zou ik er echter wel meteen een van de 2019 modellen voor halen omdat je dan goed future proof bent.
Bijzonder dat jij de enige bent die dat ook ziet, benoemt en teleurstellend vindt.

In één van de previews die ik gelezen heb stond dat ze hdmi 2.1 zouden introduceren( letterlijk, het eerste consumentenproduct met hdmi 2.1 op de markt). Zowel voor HT doeleinden en games echt een gemiste kans. Steeds meer mensen gamen vanaf de bank, ook met een htpc.

Bijzonder teleurstellend en weinig toekomstbestendig, tenzij het hardware matig 2.1 compatible is en softwarematig te upgraden is. Maar er is níets over gezegd..jammer.
Gemiste kans inderdaad, maar het is nog erg vroeg al lopen de videokaarten vaak wel voorop dus jammer is het zeker. Met Displayport 1.4 waren ze desnoods ook de eerste.. Feit is wel dat het nu nog niet noodzakelijk is en de TV's er nog niet eens zijn. Verwacht ze wel in Maart-April 2019 maar wellicht geeft Nvidia de kaarten op den duurt ook wel een refresh. De compliance tests zijn pas net beschikbaar en de kaart waarschijnlijk al langer in ontwikkeling. Wellicht kon het er niet meer bij. Maar zoals ik zei, het is geen ramp want vele functies van 2.1 zullen voorlopig toch nog niet goed betaalbaar zijn op de apparatuur. Ik denk tegen de tijd dat het iets zinvoller is we wel weer op nieuwe kaartjes zitten, maar zeer teleurgesteld dat het er niet meteen op zat.
En heel g-sync de deur uitgooien? Ga er maar niet vanuit.
Eigenlijk is dat toch gewoon Freesync? Een aantal Samsung QLED's hebben dat al.

Maar G-sync is een te dikke cashcow voor Nvidia om in te ruilen voor een open standaard.
Waarom noemen ze het niet de 2060, 2070 en 2080. Het is niet heel nvidia om bij de launch van een nieuwe serie gelijk al een ti versie uit te brengen...
Vermoedelijk zal de 2060 (en below) niet de RT/Tensor cores hebben. Als dit zo is, dan zou het logisch zijn om deze kaarten bij de announcement van de nieuwe RTX technologie niet te vermelden om verwarring/verkeerd aandacht te vermijden.
NVidia heeft er belang bij om raytracing te pushen, zolang AMD er niets tegenover kan zetten. Ik voorspel dat zelfs de RTX2050 raytracing krijgt. Vergeet ook niet dat NVidia's andere concurrent de tweedehands markt is. Als je de keuze hebt tussen een 2050 en een tweedehands 1080Ti, dan kan raytracing goed de doorslag geven.
dat is een goed argument, maar zouden de budgetseries (de ≤2060 series) dan ook niet duurder vergeleken met hun voorgangers juist vanwege die technologie. Of is dat alleen maar sortware? Ik ben er zelf niet heel erg in verdiept aangezien ik op vakantie ben. Maar hoe dan ook zal NVidia wel een extra prijsje geven aan het “raytracing” labeltje lijkt mij, hiermee worden deze budget-videokaarten minder budget.

Hoe dan ook, bijna niemand weet nu al wat ze bij NVidia allemaal achter de schermen uitvoeren. Als ze nu al de hoogste van de serie willen uitbrengen (rtx 2080ti) dan moeten ze dat maar doen en zal dat wel intentioneel zijn.
Het is nu gewoon afwachten lijkt mij. Het is in ieder geval zeer interessant wat ze daar in de innovatieve-wereld allemaal uitvoeren.
Marketing om de hoge prijzen te verantwoorden vermoed ik.
Mee eens. De enige reden die ik kan bedenken, is dat ze willen aangeven dat we voorlopig geen verbeterde versie hoeven te verwachten (zoals de Ti's dat telkens waren). De 2080 Ti zou de komende 1 a 2 jaar dan de top-of-the-line consumer videokaart zijn.
Omdat ze, net nu 7nm op stoom komt bij de foundries, nog een nieuwe 16+nm serie uit brengen.

Ze hebben dus geen jaar de tijd om deze serie uit te melken voor ze een Ti uitbrengen zoals ze normaal doen. begin volgend jaar komt AMD al met een mid range GPU op 7nm voor een fractie van het geld.

met 2-3 keer de dichtheid van 16+nm kan je een veel krachtige GPU kwijt in de zelfde die size, en verkopen voor een vergelijkbaar bedrag.

Op dit item kan niet meer gereageerd worden.