AMD vraagt patent aan op hybride techniek voor realtime raytracing

AMD heeft eind 2017 al patent aangevraagd op een techniek voor realtime raytracing die software en hardware combineert. De fabrikant heeft nog geen gpu's aangekondigd die hardwarematige versnelling specifiek voor raytracingberekeningen bieden.

Het patent dat AMD in december 2017 bij het U.S. Patent and Trademark Office aanvroeg beschrijft een hybride aanpak om realtime raytracing mogelijk te maken onder de noemer 'Texture processor based ray tracing accelerator method and system'. Onder andere Tom's Hardware schrijft over het patent.

De combinatie van een texture processor met shadersoftware zorgt voor flexibiliteit zonder de nadelen van een puur hardwarematige of softwarematige aanpak, aldus de patentaanvraag. "De flexibiliteit blijft behouden omdat de shadereenheid de algemene berekeningen kan beheren, de fixed function hardware kan omzeilen waar nodig en toch de prestaties van die hardware kan benutten", aldus een passage uit de aanvraag.

Volgens AMD is met de beschreven aanpak ook geen grote buffer voor de opslag van ray-informatie en caching nodig waardoor de hardware minder complex hoeft te worden dan bij een puur hardwarematige methode voor realtime raytracing.

Niet bekend is in hoeverre AMD de beschreven methode toepast bij zijn plannen rondom raytracing. Het bedrijf heeft nog weinig bekendgemaakt over die plannen. De komende RX 5700-kaarten met Navi-gpu's hebben in tegenstelling tot Nvidia's RTX-kaarten nog geen hardwarematige ondersteuning voor raytracing maar daaropvolgende Navi-chips op basis van een verbeterde RDNA-architectuur wel. Dat gaat dan om beperkte ondersteuning voor lichteffecten. De Xbox Project Scarlett krijgt een Navi-gpu op basis van deze next-gen RDNA-architectuur. Bij de PlayStation 5 wordt alleen over 'Navi' gesproken en niet over next-gen. AMD leek bij de aankondiging van Navi overigens meer te zien in gebruik van servers voor volledige realtime raytracing.

Meer over raytracing lees je in het RTX Turing-achtergrondartikel Raytracing en neurale netwerken in gpu's.

Door Olaf van Miltenburg

Nieuwscoördinator

01-07-2019 • 11:45

26

Reacties (26)

26
26
18
0
0
8
Wijzig sortering
Misschien een onderbuik gevoel,
maar stel... stel nou dat ze een ace in de hole slaan met wat ze van plan zijn met de nieuwe lijnen van videokaarten die er nu en in de nabije toekomst aankomen.

Een chip die net zo goed of beter is als het RTX van Nvidia, werkt met de huidige vormen van raytracing, betaalbaar blijft en redelijke performance behoudt.
Een chip die net zo goed of beter is als het RTX van Nvidia, werkt met de huidige vormen van raytracing, betaalbaar blijft en redelijke performance behoudt.
Voorlopig lijkt het een chip met grofweg dezelfde prijs en prestatie als nvidia, maar zonder de raytracing performance.
grofweg dezelfde prijs en prestatie als nvidia
.. als je met "grofweg" in het ene geval bedoelt "iets goedkoper" en in het andere geval "gemiddeld iets sneller".
Zoals het er nu naar uit ziet zal het verschil idd niet groot zijn, maar valt net iets gunstiger uit dan een ongekwalificeerd "grofweg". Tevens iets meer stroomverbruik in uiteraard zonder raytrace-specifieke hardware. De grootste onzekere factor is m.i. wat de gevolgen zullen zijn van een evt (bijna zekere) prijzen-oorlog.
.. als je met "grofweg" in het ene geval bedoelt "iets goedkoper" en in het andere geval "gemiddeld iets sneller".
Dat zeg je alsof het zekerheden zijn: vooralsnog zijn de Europese prijzen onbekend en zijn er geen onafhankelijke benchmarks.

De gelekte EU prijzen voor de 5700XT van 1 winkel zijn met 520 euro hoger dan wat je nu voor een RTX 2070 neertelt, en in de benchmarks van AMD verloor de 5700XT af en toe van de 2070. In het beste geval was AMD gewoon eerlijk en winnen ze vaker dan ze verliezen, in het slechtste geval is dit matige beeld van de 5700XT alsnog een rooskleurige voorstelling van AMD en is de 5700XT eigenlijk iets trager dan de 2070.

Daarnaast verbruikt de AMD GPU meer, en zelfs die hoge gelekte prijzen zijn voor een stock uitvoering met blower koeler, terwijl je voor onder de 500 euro wel al een custom (en dus betere) koeler op je RTX 2070 hebt.

Persoonlijk zat ik te wachten op Navi, maar het lijkt erop dat ik deze zomer enkel een CPU van AMD zal kopen. Die GPU upgrade kan wel even wachten, in de hoop dat we ooit nog eens gezondere prijzen gaan zien.

[Reactie gewijzigd door kiang op 23 juli 2024 09:21]

Dat zeg je alsof het zekerheden zijn:
Dat zeg je alsof je selectief gelezen hebt.

Direct daarna zei ik "Zoals het er nu naar uit ziet (...samenvatting van wat ik daarvoor zei)".

Daarnaast denk ik dat het niet waarschijnlijk is dat AMD zich direct bij de release al uit de markt zal prijzen dmv een marginaal prijs/prestatie verschil en verder alleen maar nadelen tov het product van de concurrent.
Een chip die net zo goed of beter is als het RTX van Nvidia, werkt met de huidige vormen van raytracing, betaalbaar blijft en redelijke performance behoudt.
Dat zal AMD wel willen, en gamers ook, maar ik zie geen reden waarom het zo ver zal gaan. Realistischer is dat het qua performance iets bij RTX zal achterblijven maar in praktijk voor veel toepassingen voldoende zal zijn. Een factor zou nog kunnen zijn evt verschil in performance tussen AMD en Intel CPUs mbt het software deel van AMD's aanpak.
Belangrijk voordeel voor AMD is waarschijnlijk dat het hardware deel van hun aanpak breder inzetbaar is, wat gunstig is voor toepassing in zakelijke- en wetenschappelijke rekencentra (waar AMD het nu al aanzienlijk beter doet dan in de consumenten markt).

[Reactie gewijzigd door BadRespawn op 23 juli 2024 09:21]

Ze hebben in het verleden ook al een aardig klap gegeven op exclusiviteit. Intel dacht goed bezig te zijn met Itanium + rambus en AMD dacht waarom de x86 platform scheiden als je het compatible kan maken dat het zowel 32 als 64 bit kan ondersteunen.
Ik zou er echt niet raar van opkijken als ze hetzelfde trucje nog een keer flikken. Ook al was het niet helemaal gelukt met freesync is het wel een bedrijfsethiek wat steeds terugkomt als je over AMD praat.
Klinkt als een soort Freesync-flashback.

Dat was een beetje hetzelfde plan: dezelfde functie, geen dedicated hardware, veel lagere prijs.
Vraag is dan of nvidia dan niet alsnog met een vergelijkbare implementatie komt, alhoewel het patent wel natuurlijk specifiek is in de verwerking, klinkt het patent niet echt als iets nieuws. In het verleden zijn er al meer mensen die raytracing via shaders hebben geimplementeerd. (maar zoals ik al zei, het patent zal wel een specifieke methode beschrijven).
Misschien een onderbuik gevoel,
maar stel... stel nou dat ze een ace in de hole slaan met wat ze van plan zijn met de nieuwe lijnen van videokaarten die er nu en in de nabije toekomst aankomen.

Een chip die net zo goed of beter is als het RTX van Nvidia, werkt met de huidige vormen van raytracing, betaalbaar blijft en redelijke performance behoudt.
Dat heet wishfull thinking. Momenteel is er niets dat op zo'n gebeurtenis wijst. Er zijn al aardig wat geruchten gelekt over prijzen en prestaties. Het is onderhand een publiek geheim dat AMD dit jaar nog niet met high-end Nvidia gaat concureren. Dat gaan ze pas in een latere iteratie proberen, in 2020 dus. Ze starten wat lager waarbij de disclaimer is dat lager tegenwoordig 450 dollar in houdt.
Mij bekroop al een tijdje het gevoel dat NVidia paniek voetbal ah spelen was met ray tracing in hun RTX kaarten.
Het was on-af ttv lancering en er was nog geen game op de markt die er mee overweg kon en degene die er iets mee deden was de performance hit dusdanig dat het niet bruikbaar was.
Nu het dus blijkt dat AMD er al een tijdje bezig was lijkt het er sterk op dat ze er wind van gekregen hebben en zoiets hadden als 'oh hell no' en snel ff iets gepresenteerd hebben als "It just works".
Dat inderdaad. Daar hoop ik op.

Ik wordt beetje triest van wat de 20xx kaarten en nu 16xx neer hebben gezet.
"Best buy" voor mij is bij verre gewoon een GTX 1080 (TI), maar die zijn nieuw niet te krijgen en goedkoop zijn ze ook niet (2e hands).

Normaal ga je met een nieuwe generatie er met dezelfde prijs stelling op vooruit.
860 -> 960 -> 1060

Maar met de nieuwe generatie kaarten is dat gewoon niet waar.

Daarbij komen er dus ook nog lijsten aan caviats van wat de kaart onder welke omstandigheden; extra of dan uberhaubt wel kan.

Dus ik hoop echt op een goede concurrerende kaart en dat ie er komt met ray tracing aan de horizon.
Ik loop er nog steeds niet helemaal warm voor, maar er zit wel degelijk potentie in.
Zelfde als me EAX en PhysicX uiteindelijk het onderspit hebben gedolven als het gaat om een "commercieel succes", maar bijna elke (fatsoenlijke) game tegenwoordig heeft fatsoenlijke hardwarematig versnelde physics en mooie realistische geluidseffecten.

Dat deze niet door specifieke hardware met proprietaire oplossingen wordt verzorgt is een 2e.
AMD vraagt patent aan
AMD heeft eind 2017 al patent aangevraagd
Consistent hoor..

Al blijf ik het idee hebben dat Raytracing beetje de PhysX van vroeger is, ja het voegt zeker wat toe, maar zoveel dat je er misschien nog jaren op moet wachten om geen gigantische deuk op je framerate te krijgen voor dat beetje meer eyecandy? Of dat inmiddels de software versie meer dan genoeg kan doen zonder zo'n speciale processor ervoor te hebben? Misschien dat AMD met deze optie het 'toevoegt' maar 'betaalbaar' houd, in plaats van er vol op te springen. Eigenlijk beetje g-sync/freesync principe, daar had AMD het dan wel aardig goed voor elkaar.

Zoals die demo van tijd geleden waarin wat voorbeelden zaten, zitten aantal tussen waar ik denk... doe maar niet, of vraag je je af of het echt zichtbaar is in een actie scene van een game. (doet me altijd denken aan die full-chrome auto's in diverse racegames).
Als je ziet hoe absurd groot de performance hit is, zelfs MET de peperdude hardware is het inderdaad gemakkelijk te zien welke richting dit uitgaat. Dit gaat gegarandeerd dezelfde tour op als physx: Wanneer de tijd rijp is vervangen door andere, vendor-onafhankelijke oplossingen.
Het is vendor onafhankelijk. Het is een hardware implementatie van een API die beschikbaar wordt gesteld voor developers door het DirectX framework.
DXR is momenteel bovenop sterk de NVidia API gebouwd. Er zijn geen andere aanbieders.
Zodra AMD raytracing zal aanbieden zal er een update van DXR worden uitgebracht. DXR is net als DirectX bedoeld als abstractie tussen de kaarten. Echter abstractie zit momenteel dicht tegen de concrete implementatie aan van NVidia.. Op basis van wat AMD zal gaan ondersteunen zal de DRX abstractie steeds meer abstract worden. Zo ging het ook met andere onderdelen van DirectX..

Uiteraard kost RT momenteel veel performance. De volgende generatie zal niet alleen per chip krachtiger zijn, ook verwacht ik dat NVidia meer RT cores op de kaart zal plaatsen. We zitten nu 10 maanden na de launch van de RTX serie, maar van de tientallen games welke RTX support aankondigden, zijn een handvol ook daadwerkelijk gereleased..

Ook verwacht ik in de toekomst dat men bijvoorbeeld meer met low-res raytracing gaat werken om te bepalen om de vorm van de shaduw te bepalen, maar vervolgens meer klasieke rendering technieken zullen toepassen om deze in high-res weer te geven..
Het lijkt mij eerder dat RTX API gebouwed is boven op de DXR API.
DXR is low level API en RTX extend dat met Library utitities en features optimised voor RTX nV hardware en Cuda en RT cores.
Helaas andersom. DXR is door Microsoft ontwikkelt samen met NVidia. Daarom kwam DXR ook pas enkele weken naar de RTX kaarten beschikbaar..

DXR is juist een high level API. Het is namelijk een (hardware) abstractie welke in principe niet weet hoe het de hardware moet aansturen. NVidia heeft daardoor een 'adapter' geschreven welke DXR calls omzet naar RTX api calls..

Ook voor NVidia is het belangrijk dat realtime raytracing voet aan de grond krijgt. Daarom heeft het direct samenwerking met Microsoft gezocht. Immers veel developers schrijven liever tegen DirectX (Raytracing) aan, dan direct de NVidia API te gebruiken. Dat maakt het minder gemakkelijk om later ook Raytracing van AMD te ondersteunen..

Abstracties layers zitten altijd minimaal 1 laag hoger dan de (concrete) implementatie layers..
Zoals bijvoorbeeld DXR of VKRay?
Hardware accelerated PhysX dan misschien, maar het is nog steeds 1 van de meeste gebruikte physics engines in game engines, al runt het tegenwoordig op de CPU. En voordat realtime raytracing op de CPU kan runnen zijn wel wel heel wat verder, het lijkt me veel logischer dat de dedicated hardware uiteindelijk goedkoper gaat worden, en er dan dus meer van op een die kan. Vooral als Intel en AMD eenmaal hun visie van 3D die stacking toe kunnen gaan passen, kon het nog wel eens interessant worden.
Ik zie de hybrid approach vooral als een transitie technologie. Net als dat de eerste Intel HEVC hardware encoders in CPUs hybrid waren, maar het is nou eenmaal efficiënter om een volledige hardware implementatie te hebben. Dus die hebben ze nu allemaal.
Deze informatie was pas gelden te vinden op Reddit. Dit de reden dat het hier is gepost. Het een symptoom van het Internet journalistiek.

https://www.reddit.com/r/...roid_app&utm_source=share


Nu toch bezig zijn een andere post die aanhaakt op deze patent.

https://www.reddit.com/r/...roid_app&utm_source=share

[Reactie gewijzigd door Amazigh_N_Ariff op 23 juli 2024 09:21]

Vond gisteren nog een goeie/mooie video over de RX 5700 & de RX 5700 XT videokaarten van AMD. En als ik het goed begrepen heb mag Nvidia zich ook aardig zorgen gaan maken. Aangezien deze twee jongens/gfx kaarten pas echt moeten gaan presteren wanneer deze op veel hogere resoluties renderwerk moeten gaan doen. En nu klinkt dat niet heel vreemd, wanneer je je bedenkt dat de nieuwe next generation consoles games moeten gaan kunnen weergeven @ 60fps bij een resolutie van 4K. En de heer die spreekt in deze video, weet dit alles dan ook erg goed te verwoorden en uit te leggen.
Dus mochten er nog meer belangstelling voor deze video zijn, dan bij deze, hij is hier te vinden:
RDNA vs Turing - The end of NVidia's dominance = YouTube, en duurt ongeveer +/- 30 minuten, en is zeker het kijken waard kan ik melden :)

Edit: Typo

[Reactie gewijzigd door SSDtje op 23 juli 2024 09:21]

Ja heb deze ook gezien! Idd aanrader. Zijn videos gaan diep op de techniek in om vervolgens een high-level conclusie eruit te trekken.
Ja heel interresant. Heb wat hobby gekloot in DX2 en 6 en 9 en 10 en 11 dus render pipeline is mij wel bekend. Wist wel dat nVidia groter driver team heeft en game exe detecteerd en dat blackbox is .
Wat ik niet wist is dat zo anders is bij AMD als de hardware meer open is en de dev dit meer bekend is.
Dat console overheersing van AMD dit nog sterker stimuleerd verwachte ik juist als meer als reden.

AMD innoveerd , maar markt migreerd langzaam en nVidia efficientie cheat beleid geeft directe resultaat.
Met slimme trucjes optimizen en lichte reductie in kwaliteit voor hogere performance en vermogen efficientie. Doet het heel goed in nextgen release review benches die de stemming zetten. Soms rel ivm beeld kwaliteit. Als ze een keer te ver gingen met reductie.

AMD grond werk werp zijn vruchten pas heel laat. Low level API. Het hielp ook niet een CPU tak dat Radeon tak de afgrond in trok.
Deze inzicht van YT'er geeft wel meer hoop goede berwachtingen dat AMD wat meer directere concurentie kan geven. Nu wachten op AMD bigchip GPU.

Om mijn Vega 56 te vervangen wordt ik pas wakker als performance 1.5 tot 2x is. En kan wel 2 jaar wachten.
Heb 1440p en 4K dus als RDNA efficenter met bandbreedte omgaat maakt nog interresanter voor mij.
De Xbox Project Scarlett krijgt een Navi-gpu op basis van deze next-gen RDNA-architectuur. Bij de PlayStation 5 wordt alleen over 'Navi' gesproken en niet over next-gen.
Grappig dat Tweakers meegaat in deze "woordspeling" Navi is RDNA, RDNA is next-gen architecture tegenover GCN.

Het is al lang duidelijk dat beide RDNA zijn....
Het gebakkelei om raytracing.... De baby sloffen zijn hierin (RT) nog te groot.

Zowel op cpu als gpu gebied presteert AMD meer dan voldoende voor de mainstream gamer. En scheelde het die zelfde mainstream gamer een €of 500 tot 700 tegenover een Intel/Nvidia based high end...

Met fanboy zijn is niks mis. Met onrealistisch bezig zijn wel....

Op dit item kan niet meer gereageerd worden.