Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

3DMark-resultaten van Samsung Exynos-soc met AMD RDNA 2-gpu verschijnen online

Samsung lijkt zijn komende Exynos-soc met AMD-gpu te testen. Dat meldt de bekende Samsung-leaker Ice universe. De chip in kwestie presteert beter dan de huidige high-end smartphone-soc's van andere chipmakers.

De testchip beschikt over Cortex-A77-cores van Arm en een RDNA 2-gpu van AMD. De soc haalt een score van 8134 in de 3DMark Wild Life-benchmark, schrijft Ice universe op Twitter. Daarmee zou de RDNA 2-gpu in de Exynos-chip beter presteren dan alle huidige Qualcomm- en Samsung-soc's voor Android-smartphones. Deze chip scoort ook hoger dan de iPhone 12-serie van Apple. De leaker meldt daarbij wel dat iedere test met de Exynos-soc een ander resultaat geeft en dat deze cijfers daarom met een korrel zout genomen moeten worden.

Ter illustratie: de Galaxy S21+ met de huidige Samsung Exynos 2100-chip haalt volgens de ontwikkelaar van 3DMark een score van 5538. De hoogst scorende Snapdragon 888 haalt een resultaat van 5823. De A14 Bionic-soc in de iPhone 12-serie scoort maximaal 7671, hoewel de A14 in de iPad Air goed is voor een score van 8507, vermoedelijk vanwege het grotere koeloppervlak van de tablet. De Apple M1-chip in de nieuwe iPad Pro haalt scores van 17.133.

Samsung en AMD maakten in 2019 al bekend dat de twee bedrijven samen smartphonechips gaan maken. In juni deelde AMD meer details over de samenwerking. Het bedrijf bevestigde toen dat de komende Exynos-soc een geïntegreerde RDNA 2-gpu krijgt met hardwarematige ondersteuning voor raytracing en variable rate shading. Volgens eerdere geruchten kondigt Samsung de eerste Exynos-chip met AMD-gpu in juli aan.

Bron: Ice universe, via Twitter

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Redacteur

29-06-2021 • 09:39

38 Linkedin

Reacties (38)

Wijzig sortering
Deze leak is gedebunked:
The score is obviously faked.
The score/framerate ratio doesn't lineup with ALL results which should be around ~167-168
Instead this one got 161
So faked I don't even
https://twitter.com/Bulls...tatus/1409791791990075395
Er klopt inderdaad niks van!

De score van wordt berekend met 167 * avg framerate.
8134 / 50,3 zou dus op ~167 moeten uitkomen, niet 161,7.

https://s3.amazonaws.com/...dmark-technical-guide.pdf
Loopt qua score nog altijd stevig achter op de A14 (mits in iPad geplaatst) dus....
of 6% sneller dan diezelfde chip in een iPhone en dus een betere vergelijking. Loopt hij dan ineens 3 generaties voor qua snelheid?
Ik vind het vergelijk altijd een beetje scheef. De meeste SoCs throttlen aanzienlijk, waarbij Qualcomm dat het minst heeft en Apple op de GPU in Iphones het meest. En na het throttlen zien de benchmarks er altijd ineens heel anders uit. Ik wil dus sowieso bij de nieuwe Samsung chip weleens zien hoe de prestaties zijn na 10 minuten load. Dat kan alle kanten op gaan.
Dit is dus een appels met peren vergelijking.Dit is een oneerlijke vergelijking omdat Apple TSMC 5nm gebruikt, wat kwa performance stukken sneller is dan Samsung 5nm.

Als we het puur hebben over de architectuur van de chip moet de chip gebakken worden in dezelfde fabriek. Ik dacht te menen dat Samsung 5nm vergelijkbaar is met TSMC 7nm.. En Ik dacht dat TSMC 5nm iets van 15% hogere snelheden toelaat dan TSMC 7nm.

Of anders gezegd, Deze Samsung chip zou 15% tot 20% sneller zijn geweest dan Apple A14 mits geproduceerd geweest op hetzelfde productieprocess als Apple.
dus een appels met peren vergelijking.Dit is een oneerlijke vergelijking omdat Apple TSMC 5nm gebruikt, wat kwa performance stukken sneller is dan Samsung 5nm.
Waarom is het oneerlijk? Samsung kiest er toch zelf voor om hun eigen 5nm te gebruiken? Ik vind dit altijd beetje jammeren om te kunnen jammeren. Volgens jouw beredenering mogen we Intel en AMD CPU's niet meer met elkaar vergelijken, mogen we een BMW niet meer vergelijken met een Audi en mogen we een Puntenslijper van ijzer niet meer vergelijken met een puntenslijper van Titanium.
Of anders gezegd, Deze Samsung chip zou 15% tot 20% sneller zijn geweest dan Apple A14 mits geproduceerd geweest op hetzelfde productieprocess als Apple.
Dit is nergens op gebaseerd. Het is echt niet zo dat een GPU architectuur op een ander procedé opeens veel en veel beter zou presteren dan op een ander. De GPU architectuur van de A14 kan ook gewoon een stuk efficiënter zijn. Er zijn teveel mogelijke variabelen die van toepassing kunnen zijn op de prestaties van een GPU, alleen kijken naar procedes gaat natuurlijk nergens over.
Maar dat doen ze dus niet, dat laatste :)
Sorry maar dat vind ik een vreemde vergelijking . Wat als….
Nee, gewoon zoals het is, dan had Samsung die chip maar wel op een echt 5nm proces moeten maken. Dat is niet het geval.
En iedereen doet alsof het makkelijk is om zomaar een transitie te maken naar echt 5nm, vanaf 7nm voor een soc, dat is niet zomaar even copy/paste, kleiner maken, etc.
4,5% slomer = "Loopt stevig achter" 8)7
Loopt inderdaad stevig achter. Het idee van meerdere Tweakers was, omdat het een door AMD ontworpen GPU is (die toch wel enige ervaring hierin hebben), deze heel veel beter zou zijn dan wat Apple in de Ax varianten levert. Als deze nu slechts 6% sneller is dan de A14 in de iPhone 12 en 4,5% trager is dan de A14 in de iPad Air, terwijl je weet dat de A15 er binnenkort er aan komt, dan is dat toch teleurstellend. Blijkbaar is de Apple GPU niet zo slecht als mensen beweren...
Dat is de Apple GPU ook niet. Het probleem is in alle gevallen koeling. Ik weet niet hoe deze SOC performed bij sustained speeds. Ik vermoed hetzelfde als de Apple tegenhanger. De performance keldert wanneer je zo'n SOC langdurig zwaar belast. De SOC wordt hoger geclockt dan wat de koeling werkelijk aan kan, waardoor de hitte langzaam aan op loopt tot deze begint te thermal throttlen. Normaliter wil je dit niet als heavy user, maar dit is marketing technisch heel interessant omdat de benchmarks heel goed uit pakken en iemand die dat ding gebruikt voor lichte werkzaamheden (wat 80%) van de afzet markt is, ervaart die nadelen van zo'n kreupele SOC niet.
Dat beweert niemand die dat kan onderbouwen. Maar het woord stevig klopt alleszins niet. Verder is vooral de vergelijking met de ipad air niet echt eerlijk. Of zullen we anders vergelijken met een full size gpu? Doen we toch ook niet. De koeling in een ipad air is groter en bijgevolg slaagt die vergelijking op niet veel. En verder gebruik je het woord slechts bij 6 procent maar vind je zijn opmerking over stevig bij 4,5 niet terecht?
En verder gebruik je het woord slechts bij 6 procent maar vind je zijn opmerking over stevig bij 4,5 niet terecht?
Zeker. Zoals ik al schreef: Er werd beweerd dat op het moment dat Samsung een AMD GPU zou gebruiken in een Exynos SoC dit een enorme winst zou opleveren en daarmee dus de Apple Ax GPU's ver voorbij zou gaan qua performance. En nu blijkt dat dat slechts 6% sneller is in vergelijking met een A14 in een telefoon, terwijl de GPU 4,5% trager is in vergelijking met de A14 in een iPad. Blijkbaar is het verschil in koeling tussen de telefoon en de tablet uiteindelijk zo'n 10% verschil in performance (en dus niet echt 'De performance keldert wanneer je zo'n SOC langdurig zwaar belast' zoals Seth_Chaos schrijft).
Daarmee vind ik dat de beloofde performance ('Exynos met AMD GPU is een Ax killer') duidelijk niet gehaald wordt.
Maar lang niet slecht voor een "eerste keer" voor zover je dit de eerste keer kunt noemen. Ben wel benieuwd naar het verbruik.
Oh dat zeker. Maar dan nog, Samsung is geen pannenkoek als het op ontwikkelen van processoren aankomt. Ik zou eerder zeggen dat het nogal een prestatie van Apple is dat die M1 in een iPad dit met een factor weet-ik-hoeveel uit het water blaast. Terwijl dat hun eerste *eigen* chip is.

Even aangenomen dat Samsung het nog aan zou durven om dit ding in een tablet te zetten dan...

[Reactie gewijzigd door DigitalExorcist op 29 juni 2021 11:24]

Denk niet dat er veel conclusies kunnen getrokken worden. Er wordt aangegeven dat de testresultaten nogal variëren. Bovendien wordt (voor zover ik kan zien) niet vermeld wat het power-budget was tijdens de tests. Vergelijkbaar met een smartphone? Met een tablet? Met een desktop? ...

Enige wat ik hier in zie is dat die potentieel die score kan produceren.
Ik heb 4 Karmakoning badges voor MS producten, en 0 voor Apple onderwerpen… op basis waarvan denk je dat ik iets met Apple heb?

[Reactie gewijzigd door DigitalExorcist op 30 juni 2021 20:57]

Kijk er naar uit, wacht al een tijdje op een mooie vervanging van mn S8+. Als ik mooi kan emuleren en met cloudgames bezig kan is dit een sterke vervanging. Hopelijk zorgt de extra rekenkracht ook voor een betere afbeelding verwerking, met mijn huidige telefoon heb ik wel gemerkt dat na een tijdje de afbeeldingen niet meer zo mooi zijn als bij bijvoorbeeld de apple counterparts.
Hoe bedoel je de afbeeldingen niet meer zo mooi? Ze vervagen toch niet ofzo?
Als ik afbeeldingen van mijn telefoon vergelijk met de afbeeldingen van mn vriendin dr iPhone dan zie ik zeker een verschil. Hoogst waarschijnlijk zit het in de processing.
Of misschien ligt het aan scherm? Ik zeg ook maar wat. ;-)
Zou het dan eerder zoeken in degradatie van je OLED paneel. Het is een toestel van 2017.
Of misschien is je kleurenschema niet natuurlijk ingesteld. Of wellicht draai je niet de native resolutie van je scherm?

Praten of "Apple counterparts" is als zeggen, auto's van VW zijn snel. Ja sommige zijn snel, sommige zijn dat echt niet. Het scherm van een Iphone SE is niet te vergelijken met een modern OLED paneel van de toprange iPhones.
Nu maar hopen dat er ook een tablet / desktop variant komt

Als je kijkt naar de kwh/benchmark resultaten van de m1 tegen eigenlijk elke andere cpu dan lijkt het erop dat arm wat stroomverbruik te verkiezen valt boven x86
Vergeet niet dat een behoorlijk deel van de performance van de m1 chip komt uit software optimalisatie.

Net als dat een ps of Xbox veel meer pixels op je scherm weet te toveren dan een PC met dezelfde specs.
Wat mij dus nog steeds verbaast.

Je zou zeggen dat fabriktanten zelf hun drivers gaan schrijven voor hun soc en/of zelfs de route nemen als Nvidia in het verleden waarbij ze taken van de CPU overnemen en die door de GPU laten uitvoeren. Nvidia heeft voor een hele riks games hun drivers wat aangepast zodat ze meer uit de GPU kunnen halen en niet blijven toekennen aan de CPU.

Met de greenwashing van de afgelopen jaren ,
https://nl.m.wikipedia.org/wiki/Greenwashing
, moet het mogelijk zijn om zonder al te veel trammelant de toestellen een jaar extra te laten werken zonder dat er performance hoeft worden ingeleverd,
maar natuurlijk wel flink wat omzet.
Net als dat een ps of Xbox veel meer pixels op je scherm weet te toveren dan een PC met dezelfde specs.
Nou, is dat eigenlijk wel zo deze generatie? Als ik vergelijkingen zie van cross platform spellen dan lijkt dat niet helemaal meer het geval te zijn. Hitman 3 is een mooi vergelijk dat soms beter draait op de PC dan op de nieuwe generatie consoles. Op de PS5 doet 'ie ook maar 1800p met veel instellingen op medium en op de Xbox series X wel 4k, maar nog steeds een kleiner aantal instellingen op Medium. Een PC met vergelijkbare specs doet 4k op ultra met gemak.

Dat verhaal ging vroeger op. Maar PC hardware is sinds de Xbox One/PS4 veel meer op elkaar gaan lijken en zeker bij de Xbox zijn de apis ook nog eens gaan lijken op die op de PC. Zo is DX11, DX12 en Windows ook beduidend efficiënter geworden, waardoor jouw stelling niet meer op gaat in 2021.
Zal de nieuwe Google SoC (GS101) ook hier mogelijk in meegaan?
Sinds de SoC voor Google door Samsung gemaakt zal worden.

Zou het dan kunnen dan dat ze mogelijk ook een RDNA2 GPU zullen gebruiken?
"De leaker meldt daarbij wel dat iedere test met de Exynos-soc een ander resultaat geeft " .. er wordt dus heerlijk gethrottled door Samsung, maar kan natuurlijk ook zijn dat er nog getweaked moet worden aan voltage en frequentie scaling.
Oh, hopelijk gaat Samsung die dan gebruiken in een Quest 2 tegenhanger.
Hoe representatief is de 3dmark wildlife test voor de mogelijkheden van de chip? Heeft een A14 chip bv ook ondersteuning voor raytracing en is dit een onderdeel van de test?
Alle Apple SOCs die Metal 2 ondersteunen hebben ondersteuning voor Ray Tracing. Metal 2 heeft namelijk gewoon Api level Ray Tracing ingebouwd. Vraag is alleen welke API 3Dmark gebruikt. Native Metal voor Apple Producten of MoltenVK.
Ondersteuning voor raytracing zegt op zichzelf niet zoveel en hoeft niet veel meer te zijn dan een vinkje op een specsheet. Als die raytracing API volledig leunt op de CPU/GPU en niet op toegespitste hardware dan maakt het weinig uit of het 'native Metal' of MoltenVK is want de performance & toepasbaarheid zal in beide gevallen ondermaats zijn. Voor zover ik weet hebben de SoCs/GPU's van Apple nog geen specifieke hardware aan boord voor het versnellen van raytracing zoals RDNA2 en Nvidia RTX dat hebben.

Voor het benchmarken van raytracing is WildLife niet de juiste benchmark, daar hebben ze Port Royale-test
voor maar die is enkel beschikbaar voor desktops voor zo ver ik weet. Met andere woorden: voor mobile heeft 3DMark nog geen raytracing benchmark omdat de noodzaak er niet was door het ontbreken van hardwareondersteuning op mobiele apparaten.
Doet er toch niet toe? Herr_Boogie vraagt of de A14 chip ondersteuning heeft voor Ray Tracing en ik geef als antwoord: "Ja".

Om Ray Tracing te ondersteunen heb je namelijk geen dedicated hardware nodig. Dit kan je ook op de GPU doen. En kijkend naar de Implementatie kan ook dit gewoon goed werken. Ik heb Ray Tracing in 2 Metal games geïmplementeerd voor klanten en de Metal Performance Shaders (het framework dat Ray tracing afhandelt voor iOS en macOS) is best geoptimaliseerd. Dus het antwoord blijft hetzelfde. Ja de A14 ondersteunt Ray Tracing.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True