Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Samsung-smartphones krijgen AMD-gpu met ondersteuning voor raytracing en VRS

Samsung presenteert later dit jaar een Exynos-soc voor high-end smartphones met daarin een gpu die gebaseerd is op AMD's RDNA 2-architectuur. De gpu heeft ondersteuning voor raytracing en variable rate shading.

Samsung werkt sinds 2019 samen met AMD voor gpu's in zijn socs. De eerste chip met AMD-gpu zou dit jaar uit moeten komen. Samsung heeft daar zelf nog geen details over gegeven, maar AMD zegt tijdens zijn Computex-presentatie dat het gaat om een soc voor high-end smartphones en dat Samsung later dit jaar met meer details komt

De geïntegreerde gpu in de Exynos-soc is een aangepaste gpu op basis van de RDNA 2-architectuur. Diezelfde gpu-architectuur wordt gebruikt in de Radeon RX 6000-videokaarten en de gpu's van de PlayStation 5 en Xbox Series X en S. Het was al bekend dat Samsung een gpu op basis van de RDNA-architectuur zou maken, omdat het daar een licentie voor heeft afgenomen.

Samsungs Exynos-soc met RDNA 2-gpu krijgt volgens AMD ondersteuning voor raytracing en variable rate shading. Daarmee komen die technieken voor het eerst naar smartphones. Met raytracing kunnen reflecties en schaduwen realistisch worden berekend. VRS is een techniek om bepaalde delen van het beeld met minder details te renderen, om zo rekenkracht vrij te maken voor bijvoorbeeld een hogere framerate.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Julian Huijbregts

Nieuwsredacteur

01-06-2021 • 10:54

65 Linkedin

Reacties (65)

Wijzig sortering
Dit gaat hopenlijk de exynos line wel een goede boost geven. Het is nu toch voornamelijk nog de GPU wat het onderspit delft versus de qualcomm adreno gpu. Wel grappig dat Qualcomm oorspronkelijk ook AMD gpu technologie gebruikte. Adreno is een anagram van Radeon.
De enige echte reden die ik zie dit een dergelijke zet zou kunnen valideren is als je hiermee een extern beeldscherm kan gaan aansturen en je mobiel dus een soort van workstation/gamestation wordt.
Met Samsung Dex kun je dit al.

Zowel mirroring (alleen beeld sturen)
als ook dat je een scherm (TV / monitor) als een computer scherm gebruikt
en je telefoon een input device wordt (optioneel) maar in ieder geval niet laat zien wat je op het computer scherm aan het doen bent.

Op de computer kun je het met een USB kabel
en TV's die het ondersteunen kunnen het via wifi.

Heb met beide modussen al zitten gamen, werkt prima.
Mag allemaal kwa latency nog wat omlaag, maar zodra dat nog wat beter wordt is het echt geweldig.

[Reactie gewijzigd door NEO256 op 1 juni 2021 11:28]

Jammer alleen dat Dex best frustrerend in gebruik is - mijn S10 wordt heel snel loeiheet en dan kan je hem niet meer gebruiken (al binnen 10-15 mins vaak, het is nog niet eens zomer!). Theorie leuk, praktijk...wat minder.
Ik heb een S9
en heb meestal Chrome, een tijdsregistratie app en Dragon Tamers (spel) open staan.

En dan bedien ik het incidenteel door de dag heen, maximaal een 20 tot 30 minuten aan een stuk.
Weinig hitte problemen ondervonden, maar heb het nog geen hele lange strekken geprobeert en echt gecheckt of hij dan erg heet wordt.
Ik doe er wat videobewerking mee en andere wellicht "serieuze" zaken - en dan helaas oververhit ie snel (ik woon ook ff niet in NL dus is het 25c in de kamer..misschien dat dat ook niet helpt).

Zou willen dat het volwassener was! Bijv, keyboard onder instagram werkt erg naar dus schakel je toch snel weer over naar je telefon voor efficientie..
Videobewerking is ook niet bepaald waarvoor smartphones primair zijn ontworpen...
Ook veel tablets, thin&light laptops en mini-computers kampen met problemen bij 'heavy workloads' (zoals videobewerking), je vereist voor langere duur veel rekenkracht en daar hoort simpelweg passende koeling bij, is die koeling er niet gaat het apparaat uiteraard throttlen (vaak tot niveau 'onwerkbaar' inderdaad).
Niet echt heel verrassend dus wanneer door een Tweakers-bril bezien.
Dezelfde taken werken prima als de telefoon niet aan de DEX ligt. Dus het kán wel maar ergens bij het DEX'en gaat het mis :) Dit is een bekend probleem.
Vermoedelijk ontneem je best veel rekenkracht en ram door het gebruik van DEX hierdoor probeert de telefoon te compenseren en te multitasken, voor mij niks gek dat hij dan heet wordt, ditzelfde probleem al bij een reguliere game pc als 2 high end games lang elkaar geopend zijn in borderless window, dan begint me 2080 ook ineens te blazen als een stofzuiger.
Vroeger had je ook een vergelijkbaar probleem, als je een zware app draaide op de telefoon en hem vervolgens ook nog oplaadt.
Ik doe er wat videobewerking mee en andere wellicht "serieuze" zaken - en dan helaas oververhit ie snel
Jammer alleen dat Dex best frustrerend in gebruik is - mijn S10 wordt heel snel loeiheet en dan kan je hem niet meer gebruiken (al binnen 10-15 mins vaak, het is nog niet eens zomer!).
Tja, dat is niet de gemiddelde toepassing van Dex. Ik zie zoiets met name als convergence om een groter scherm te gebruiken, plus misschien inderdaad de voordelen van de desktop peripherals. Videobewerking/gaming is dan een stapje verder dan office werk.

Dat de GPU niet zo krachtig is, is nogal logisch. Kun je die videobewerking niet remote ergens laten renderen?
De GPU is juist heel krachtig, het editen van 4K gaat véél sneller dan op mijn laptop(s) van een paar jaar oud. Echter geeft het zodra je DEX doet om de één of andere reden heel veel hitte. Kan het uren achter elkaar doen zodra je gewoon de telefoon op de tafel hebt liggen. Vreemd he?
Tja, laptops van paar jaar geleden zijn Intel, en de GPUs zijn ook niet vergelijkbaar met desktop versies. Gezien de hoeveelheid data die je continue over USB-C pompt plus continue load op de GPU verbaasd het me helemaal niets. TB2/TB3 worden ook verdomd heet. Heck, zelfs HDMI. Plus dan zit je nog met probleem dat je batterij voldoende output moet leveren (of hij wordt ook nog eens tegelijk opgeladen). Al eens gezocht naar externe koeling oplossingen?
Ik wacht wel tot dit iets volwassener is :) Komt vanzelf goed komende 1-2 generaties!
Helemaal mee eens. Convergence is de toekomst. Beeldschermen, toetsenborden, muizen, enz ga je allemaal aan kunnen sluiten op andere hardware. eGPU is wat dat betreft ook een interessante ontwikkeling.
Aangezien je S10 al 2 generaties oud is is het al een stuk beter. Er zijn tegenwoordig hele video workflows die op Samsung DEX draaien.
Voor de geinteresseerden: DEX via de computer werkt inmiddels ook draadloos.

Ik zou alleen willen dat ze de lag eens fixen...zowel draadloos als bedraad loopt DEX niet echt soepel (galaxy S10).
Hier op een S10 nergens last van, met als controle een Fold 2. Gaat beide lag vrij.

De computer die ik gebruik is een Mac, dus daar kan een verschil in ziten. Samsung raad ook een 5Ghz verbinding aan op wifi.
Het oude 'windows continuum' is beter dan dex, zou zo ook veel handiger zijn geweest.
We hebben al een Switch die laat zien hoe het kan. Deze hardware is beduidend rapper dan de Switch, dus dat kan best interessant worden.
Mja een telefoon met zulke ventilatie? :+
Precies, knap dat dat nu wel kan werken toch?
Maar ja, de mobiele games zijn er nog geen eens klaar voor, meeste games werken niet met joystick, keyboard en muis, mja fortnite is er wel klaar voor
Damn, 2004 belde net en wil je reactie terug hebben.

Heb je dit van horen zeggen of daadwerkelijk geprobeert? Geen probleem hier met het aansluiten van toetsenbord / muis / xbox controller / ps4 controller. De AAA games zijn er wel klaar voor hoor, met of zonder game streaming diensten.
Nou de games die ik speel dus niet, tenzij ik een comtroller input emulator gebruik,
Ook op de telefoon zelf doet men een hoop, inclusief gamen. Je bent niet de enige gebruiker hè?

Dit is gewoon een hardwareverbetering, zoals alle voorgaande bij smartphones. Er is niet een specifiek punt waarbij dat ineens verkeerd zou zijn; het gebruik van apparaten wordt vaak breder doordat de hardware meer kan. Naast games, kunnen ook apps meer doen met 3D bijvoorbeeld, waar dat iets toevoegt. Mooiere weergave in Google Earth bijvoorbeeld, of een toekomstige Google Maps navigatie, gezondheids-apps, enz. Betere grafische performance en beeldkwaliteit kan goed worden toegepast in van alles.

Het idee van je smartphone gebruiken als enige apparaat, aangesloten op extern scherm en besturing als je thuis bent, is evengoed wel interessant. Een losstaande pc zal het thuis- en werkgedeelte voorlopig toch beter doen voor het geld, maar in de verdere toekomst heb ik wel interesse in het idee van één persoonlijk apparaat dat alles doet.

[Reactie gewijzigd door geert1 op 1 juni 2021 15:17]

wat ga je raytracen op mobile dan PUBG Mobile? kom allereerst maar met goeie games voor mobile..
Vrijwel alle 3d games zouden gebruik kunnen maken van raytracing voor schaduwen en licht. Dit zijn qua performance lastig dingen om te doen op smartphones, geoptimaliseerd methode hiervoor kunnen wel eens zorgen voor een gigantische stap voorwaarts voor hoe de Games eruit zien.
Let wel dat het vooral een stap voorwaarts is in hoe games er uit kunnen zien, niet direct in hoe ze er uit zien. De 'cheat' technieken die nu worden gebruikt zijn zo goed uitgespeeld dat er nog maar weinig games zijn waar raytracing echt een verschil maakt, maar vooral zodra developers behendiger worden met raytracing zal de kwaliteit omhoog kunnen.

Nog steeds een goede ontwikkeling hoor, want het is een ontwikkeling. Maar de directe impact er van vind ik tot nu toe meevallen, het is meer een toekomstbestendig iets waar uit techniezen zoals rasterization de rek wel een beetje uit is.
Precies dat. Linus techtips heeft een paar weken terug een test gedaan om te kijken of mensen een verschil konden zien . Het grappige is dat de meeste raytracing er minder goed vonden uitzien dan de versie zonder raytracing :+ .

https://www.youtube.com/watch?v=2VGwHoSrIEU

[Reactie gewijzigd door whiner op 1 juni 2021 11:58]

Ben ik niet helemaal mee eens. De 'cheat' technieken zijn inderdaad wel uitgespeeld maar maar verre van optimaal. De huidige oplossingen produceren veel grafische glitches die elke gamer vanzelfsprekend neemt. Hoewel je nu de stap naar games met ray tracing misschien niet meteen ziet zal je, naarmate je meer games met ray tracing speelt, de stap naar games zonder ray tracing sneller merken.
Heb laatst nog horizons zero down gespeeld en dingen die mij meteen opvallen was dat reflecties van het water zomaar verdwijnen, vooral aan de zijkanten van het scherm. Dit is iets waar bijna elke spel met screen space reflecties last van heeft. Ook is hier en daar geflikker in de schaduwen. Een nadeel van de shadows maps, er zijn veel parameters voor shadows maps die je per scene moet tweaken om al deze foutjes uit te halen. Nu heeft ray tracing ook nadelen, zoals ruis. Maar deze is meestal niet sceneafhankelijk en er zijn nu al veel oplossingen voor.

Het grootste voordeel van ray tracing vind ik trouwens dat het de ontwikkeling van games uiteindelijk makkelijker maakt. Er gaan veel manuren in zitten om de reflecties en schaduwen goed te laten lijken, dit allemaal kan later in andere dingen worden gestopt zoals het maken van meer content, of betere animaties. Ik zeg uiteindelijk omdat op dit moment een spel zowel met als zonder ray tracing goed moet werken. Als je in de toekomst 'ray-tracing only' games krijgt ga je het verschil echt merken. Daarom is het juist goed om ray tracing op de telefoons en tablets te hebben, hoe meer systemen ray tracing hardware hebben hoe sneller de spelontwikkelaars naar deze techniek over kunnen stappen.
Nee ze zijn niet optimaal, en daarom is raytracing ook een goede ontwikkeling. Maar we moeten niet doen alsof raytracing een godsgeschenk is wat meteen alles oplost, want er is nog heel veel te optimaliseren in raytracing. Maar dat is exact wat ik zeg toch? Het is een betere oplossing, maar op dit moment is het nog niet meteen 'wow dit is echt zo veel beter', wat logisch is maar wel belangrijk is om de verwachtingen van mensen een beetje in toom te houden. Ik kan me voorstellen dat er best wat mensen teleurgesteld zijn als ze een kaart kopen specifiek voor raytracing, en er dan achter komen dat het eigenlijk niet echt heel veel beter is op het moment :)
De 'cheat' technieken die nu worden gebruikt zijn zo goed uitgespeeld dat er nog maar weinig games zijn waar raytracing echt een verschil maakt
Als voorbeeld daarvan, Epic's nieuwe Lumen technologie heeft een high-end GPU nodig, terwijl Unity's Enlighten voor 90% hetzelfde resultaat boekt en met gemak op een mobiele telefoon draait.

Er is dus enorm veel extra kracht nodig voor die extra 10%, en dat valt lastig uit te leggen wanneer de game er voor veel spelers (die nog geen ray tracing hardware hebben) veel slechter uit ziet. Je kunt hier immers niet terugvallen op de oude techniek, het is het één of het ander.

Ik zie daarom voorlopig meer in ray traced schaduwen, reflecties en misschien SSGI. Deze zijn wel optioneel.

[Reactie gewijzigd door Wolfos op 1 juni 2021 12:26]

Da's nou echt een typisch kip en een ei verhaal..... ;)

Ooit werd gedacht dat 4 KB ook voldoende werkgeheugen voor een pc was.
Maar meer werkgeheugen heeft ook geleid tot enorm slordige code, "want er is toch genoeg geheugen"...
Da's nou echt een typisch kip en een ei verhaal..... ;)

Ooit werd gedacht dat 4 KB ook voldoende werkgeheugen voor een pc was.
Het leuke is, dat het toen ook meer dan voldoende was 4KB RAM, toen het uit kwam.
Ooit werd gedacht dat 4 KB ook voldoende werkgeheugen voor een pc was.
Nee, Bill heeft dat nooit gezegd.
Misschien verder kijken dan de top lijsten van Google Play.
https://twitter.com/Ludipe/status/1397138200016076804
Zou dan een nieuwe monuments valley willen zien met ray-tracing. Echt mooi om te zien dat ze deze technologie ook in de telefoons kunnen implementeren terwijl het op pc/console nog zo nieuw is.
Apple heeft al jaren ray tracing, maar geen ontwikkelaar die er gebruik van maakt. Volgens mij kwam PowerVR er ook al mee. Er is weinig animo voor high-end graphics op mobiel. Word de telefoon alleen maar heet van en de batterijduur gaat ervan omlaag.

[Reactie gewijzigd door Wolfos op 1 juni 2021 11:22]

Apple heeft al een tijd een Ray-tracing API in hun Metal framework zitten, daar is vorig jaar een update voor aangekondigd.
maar deze draait in een soort van software mode, en die werkt niet real time. Dit is eerder voor zakelijke render pakketen.
Voor games is dit gewoon niet bruikbaar, daarom dat er geen enkele game dev dit gebruikt.

Ze hadden met PowerVR de tech om hardware toe te voegen, maar hebben dit nooit gedaan (misschien met de opvolger van de M1)

Zo had Crytec ook al eens een ray-tracing demo voor PC die op de shaders van een Vega56 werkte, maar dan wel real time aan 30fps...

Edit: Nu maar pas gezien dat hieronder als was gerageerd.

[Reactie gewijzigd door bugcyber op 1 juni 2021 14:06]

thanks, zal eens kijken!
Ontwikkelaars (dan doel ik op de groep die potentieel gebruik maken van Ray Tracing functionaliteit in Metal API) gebruiken het niet omdat de hardware simpelweg niet toereikend is voor realtime toepassingen. Het zal waarschijnlijk ook nog wel heel wat jaren gaan duren voordat we op dat punt zijn want zelfs stroomvretende top GPU's van nu hebben moeite met realtime ray tracing.
Ray-tracing is ook niks nieuws. De hardware die het fatsoenlijk kan draaien in AAA games dan weer wel.
Klinkt als overbodige luxe....leuk dat het kan. Maar zie het nut er niet van in. Zal wel aan mij liggen ;)
Klopt, maar het gaat er meer om dat die GPU's in die highend smartphones nu dus veel krachtiger zijn dan voorheen, en raytracing is dan deels mogelijk, maar ipv raytracing kan die kracht dus ook anders ingezet worden binnen games.
Op een techwebsite melden dat de hardware in een mobiel apparaat nu op een enorm niveau gaat komen en dat overbodig noemen is wel apart.
Dan moet dat niveau wél benut worden, en waarvoor wil je het benutten? Smartphones zijn nu al krachtig genoeg. Het is destijds ontwikkeld om makkelijker te communiceren, en dat kan al. Er wordt nu voornamelijk op de consumptiezucht ingespeeld........meer, beter, sneller....
Nou, als je de mobiel als vervanging van de laptop / pc gaat beschouwen is het wel degelijk een nuttige toevoeging en niet alleen om te gamen.
Samsung gaat toch nooit zijn eigen productlijn kannibaliseren? Dat kost omzet, lijkt mij een slechte strategie. Ze kunnen de chip wel in meerdere producten gebruiken, zodat zij een ecosysteem vormen rond de chip netals Apple dat doet.
Xiaomi, Samsung en Android zelf hebben al een desktop mode. Als je als merk hierin voorop kunt lopen dan hoef je niets te kanabaliseren. Samsung heeft zelfs een whitepaper om de pc uit te faseren op kantoor en te vervangen voor een mobiel.
Dus die geruchten voor s22 komen toch waar 🤩 kan niet wachten!
Ik ben wel heel erg benieuwd of dit ook zou kunnen betekenen dat de open-source Mesa drivers en de kernel voor AMD kaarten ook hier ingezet kunnen worden. Dat zou mainline support kunnen betekenen en dus een goede zaak voor softwareupdates.
Komt Samsung met een nieuwe stand alone VR headset als concurrent voor de Oculus Quest? Met VRS als hulpmiddel voor Foveated rendering en FidelityFX voor hogere framerates met meer details uit een mobiele chip?
Ugh, Samsung had vorig jaar in mei aangegeven dat ze toen over enkele maanden nieuwe VR hardware zouden tonen, maar een jaar later is er nog steeds niets (helaas). Ik vraag me dus ten zeerste af of Samsung nog met een nieuwe VR headset komt. Sowieso is dan de vraag of ze hier beschikbaar komen, want dat waren die vorige ook niet officieel en moest dus via grijze import.
En dan 10% van de cores tov de desktopvariant, of 50W stroomverbruik?
Wat bedoel je? Wil je een full fledged AMD desktop kaart in een mobieltje stoppen?
Nee, maar de architectuur is wellicht veelbelovend terwijl de gpu's in mobiele uitvoering misschien niet veel beter zijn dan de Adreno/Mali/A12
Wacht, dus desktop/laptop GPU's met RDNA2, Playstation 5 en Xbox Series X met RDNA2, Tesla's met RDNA2 én nu een ARM SoC met RDNA2?

Dit moet toch ergens in de nabije toekomst een optimalisatievoordeel gaan opleveren voor AMD GPU's in games?

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True