Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung verwacht over twee jaar socs met AMD-gpu uit te brengen

Samsung verwacht dat de samenwerking met AMD op het gebied van gpu's over twee jaar concreet zichtbaar zal worden. Vanaf dan zou de techniek in socs voor smartphones en in andere producten terechtkomen.

Bij de bespreking van Samsungs kwartaalcijfers vroeg een analist welke Samsung-socs een AMD-gpu krijgen en wanneer die uitkomen. Die specifieke vragen werden niet beantwoord, maar de Zuid-Koreaanse elektronicagigant gaf wel aan dat het gebruikelijk is dat het een aantal jaren duurt om dergelijke technologie te integreren. Samsung zei daarbij te verwachten dat de nieuwe gpu-techniek grofweg over twee jaar kan worden ingezet. Een transcript van het gesprek staat bij Seeking Alpha.

Ook benadrukte Samsung dat de samenwerking met AMD niet alleen invloed zal hebben op socs voor smartphones, maar ook voor andere toepassingen. Op welke manieren en in welke producten Samsung de AMD-gpu-techniek allemaal wil inzetten, is nog niet bekend.

In juni maakten AMD en Samsung bekend samen te gaan werken aan zuinige gpu's voor smartphones. Onderdeel van die samenwerking is dat Samsung een licentie afneemt om de RDNA-architectuur van AMD te gebruiken voor gpu's. AMD presenteerde die architectuur dit jaar, ook de eerste Navi-videokaarten maken er gebruik van. Volgens AMD is de architectuur erg schaalbaar en geschikt voor allerlei toepassingen.

Door Julian Huijbregts

Nieuwsredacteur

05-08-2019 • 14:41

69 Linkedin Google+

Reacties (69)

Wijzig sortering
AMD maakt het niet alleen Intel erg moeilijk. Nvidia kan het op deze wijze ook wel lastig krijgen als straks buiten de gamemarkt in elk product een AMD GPU te vinden is.

Zou mooi zijn als we desktop achtige GPU's op andere platformen krijgen. Gezien de huidige ARM GPU lijnen toch wel van een andere orde zijn.
Valt toch wel mee? Zo lang NVidia niet in die markt zit maakt het ze denk ik weinig uit. Daarnaast boeit het de gemiddelde consument vrij weinig wat er in zijn product zit, dus in markten waar ze wel zitten verwacht ik niet dat ze het lastig krijgen daar door.
Omdat er meer en meer AMD GPU's gebruikt worden (of op z'n minst een hoop van de achterliggende technieken), zullen developers meer ervaring krijgen met het optimaliseren voor AMD gpu's, en wordt het ook interessanter om hierin te investeren ipv de 'bare minimum' te doen.

Beter geoptimaliseerde games betekent dat AMD performance ook beter wordt, waardoor de verschillen tussen AMD en nvidia kleiner worden (of door AMD gewonnen worden), waardoor nvidia hun leiderspositie kan verliezen.
Maar is het niet al zo dat de meeste optimalisatie voor games in de AMD videokaarten zit? Er zijn honderden miljoenen consoles in omloop waar dergelijke kaarten in zitten.

Ik neem aan dat als een dergelijke markt voor game-developers al niet genoeg is om ervoor te optimaliseren, dat er niet veel gaat zijn dat ze wel gaat overhalen.
AMD wint ook al vaker in games met mid range videokaarten.
Dit gaat geen reet uitmaken voor "optimalisatie" er is te veel abstractie aanwezig om als ontwikkelaar een verschil te merken. Zeker op een mobiel platform maakt het geen reet uit voor welke video chip je code schrijft.
Vergis je niet, Nvidia zit ook in flink wat andere markten, ook markten waar AMD nog helemaal niet in zit.

Als voorbeeld, de automotive markt waar ze chips leveren voor de systemen voor de multimedia systemen en gedeeltelijk ook voor autonoom rijden.
Daarnaast lopen ze ruim voorop AMD op het vlak van AI en datacenters. Ook hebben ze nog ruim voldoende reserves op financieel vlak.
Klopt, maar ik heb het specifiek over optimalisatie voor gaming.
Datacenter, Autonoom rijden en AI zijn daar minder relevant
NVidia was in de running voor het Samsung contract. Het maakt hun weldegelijk uit.
Samsung kon in 2016 voor Nvidia of AMD kiezen maar het werd...
https://wccftech.com/samsung-nvidia-amd-gpu-in-exynos/

[Reactie gewijzigd door Gekke Jantje op 5 augustus 2019 16:32]

Idd ik weet ook niet welke cpu er in mijn iPhone zit,bij een laptop let ik er dan weer wel op.
Bij een iPhone heb je sowieso weinig keuze, het heeft dus weinig zin om erop te letten.
AMD maakt het niet alleen Intel erg moeilijk. Nvidia kan het op deze wijze ook wel lastig krijgen als straks buiten de gamemarkt in elk product een AMD GPU te vinden is
Ze zitten al tijden in de game markt .
Denk aan PlayStation en Xbox
Ook een mega afzetmarkt

[Reactie gewijzigd door Japiegsxr op 5 augustus 2019 15:03]

Qua volume ja, qua winst per verkochte console, nee.
Kun je wel zeggen dat het reclame is voor AMD.. the next generation of consoles powered by AMD..
Dit is goede branding en ook wat waard ook al verdiend AMD maar 5% winst..
Het bulk van de kopers zal totaal niet weten wat voor cpu in de console zit.
Je kunt hetzelfde zeggen over reclame langs voetbalmatchen.. Het is onbewust associatie.
Op de trailers, op reclame, in de krant.. AMD icoontje.. etc..
Sony en MS gebruiken het amd merk nauwelijks in hun markerting, zo is op de doos van de ps4 het amd logo niet te vinden.
Inderdaad, op Nintendo consoles zijn de logo's van AMD wel te vinden. _/-\o_
Op Wii en Gamecube console was het logo van ATI (gpu-divsie van AMD) opgeplakt.
Op de doos stond er een logo van IBM.

[Reactie gewijzigd door MedionAkoya op 5 augustus 2019 18:51]

Toen de Gamecube uitkwam was ATI nog gewoon zelfstandig, en de Wii kwam in hetzelfde jaar uit als dat AMD ATI overnam. Weinig gebruikers zullen de link tussen AMD en ATI leggen. In beide zaten ook eigenlijk geen AMD producten.
Dat maakt natuurlijk niets uit voor de afzetmarkt !
Reclame richting welke consument?

Voor de potentiele console-koper maakt het niet uit, want die koopt geen AMD maar een Sony of Microsoft console.

Voor de potentiele PC-koper maakt het niet uit, want die koopt een PC dus maakt het niet uit in welke andere markten AMD nog actief is.

Met goede reclame leg je aan een consument uit waarom jouw product voor hem relevant is.
Dat laatste is niet helemaal waar. Merk bekendheid creëren is een groot deel van marketing. Hoe vaak zie je wel niet een reclame gericht op een merknaam in plaats van een daadwerkelijk product.
Alleen weet de doorsnee gamer helemaal niet wat voor GPU er in zijn/haar console zit, en dat interesseert ze ook niet, zolang wat ze zien maar mooi is.
Ik denk dat het erom draait wat voor beeld je creëert. Bijvoorveeld wanneer je een intel stikker ziet op een laptop, dat dat een betrouwbaar/beter beeld geeft dan een AMD sticker(minder bekend).
Dat klopt, maar diezelfde sticker zie je niet op consoles of telefoons.... (met als enige uitzondering Nvidia met haar eigen Shield producten)
Beter beeld? Die Intel processoren zijn zo lek als een zeef tegenwoordig.
Nintendo Switch iemand?
Nvidia wil graag een stukje van de taart meepakken hoor.
Als AMD er niet aan verdiende deden ze het niet ...
Niet veel marge maar enorme aantallen maakt soms meer winst als een kleine markt met veel winst.
Je doet dit om contacten warm te houden en om de ontwikkel kosten uit te kunnen smeren over grotere aantallen.
Ja grotere aantallen en dus uiteindelijk flinke winstenover de langere termijn.
Hetzelfde geld voor consoles.
Yup, zo doen de Lild, Action, Aldi, etc etc etc etc het al vele jaren.
Hele kleine marges maar vreselijk grote aantallen.
Daarom "buiten de gamemarkt".

PS en Xbox zijn veredelde PC's, al is dat wel een beetje simpel gezegd. (Had mijn PC maar dedicated audio hardware voor het processen van 512 kanaals geluid, i.p.v. dat het 3-4 cores op vreet van mijn CPU zoals nu)

De terugkomst van AMD is overigens voor een deel juist te vinden in de deal met Microsoft en Sony. Beide partijen hebben namelijk een boel CPU kennis inhouse en het stabiele inkomen dat ze hebben gebracht door die deals.
Waren er vroeger niet van die dedicated geluidskaartjes die e.e.a. in hardware konden? Is dat geen ding meer, tegenwoordig?
Nee. In de tijd van single-core processoren zonder geavanceerde multi-media instructies was het handig om een extra chip te hebben. Dat gaf je 486 CPU wat extra lucht. Maar het probleem van zo'n extra chip is dat je die vierkante millimeters silicium maar voor één ding in kunt zetten. Een moderne Celeron CPU heeft meerdere cores, elk met MMX/SSE/AVX instructies. Die kan datzelfde werk dus doen, en als er geen geluid nodig is dan kan die CPU ook ander werk doen.

Met zoiets extreems als 512 kanaals geluid moet je natuurlijk iets dikkers hebben dan een Celeron, maar ook dan is een dikke CPU handiger. Want hoe vaak heb je nu 512 kanaals geluid nodig?
Zucht... Helaas niet. Ik zou graag een high end geluidskaart met hdmi lus willen hebben. Die zijn er wel, maar hopeloos verouderd en slecht ondersteund. Met de huidige gpu-hdmi kaarten heb je prima output, maar weinig (geen) ingangsmogelijkheden.
"Desktopachtige GPU's"? Wat Nvidia wat dat betreft al een tijdje in de Shield producten stopt (Tegra X1) komt daar al aardig in de buurt. En alle recente mobiele GPU oplossingen zijn zo mogelijk al vele malen krachtiger dan wat er de gemiddelde basis pc met onboard graphics zit.

Mobile gaming is wellicht van een andere orden dan PC gaming, maar wat je tegenwoordig op een mobieltje op het scherm tovert heb je toch een flinke gpu nodig in een desktop.

Er zullen legio voorbeelden zijn, maar een spel als Honkai Impact 3rd hoef je denk ik niet te proberen op een simpel desktopje.
Desktop staat ook niet stil, de nieuwe lijn Intel cpu’s wordt veelal met behoorlijk sterke Iris plus graphics uitgerust en amd levert natuurlijk soc’s met vega graphics die het ook heel behoorlijk doen.

Discrete GPU’s op de desktop hebben helemaal een powerbudget waardoor socs voor mobieltjes weinig kans maken.

Niettemin is het inderdaad wel gaaf om te zien wat bijvoorbeeld een iPad pro al neer kan zetten qua performance!
Iris pro was mogelijk nog wat om over naar huis te schrijven, maar de nuc van intel zelf was je vervolgens ook al 700 euro aan kwijt als je een beetje aangekleed systeem wil hebben. Als intel het zo goed voor elkaar had dan waren ze nu niet met AMD in zee gegaan. Alles wat dus een beetje op de intel iris naam probeert mee te liften is de naam niet waardig.
Ik ben zelf in het bezig van een Skull Canyon nuc, en ondanks dat je er wel een beetje mee kan gamen schiet het toch al snel tekort.

Consoles reken ik dan voor het gemak even niet mee (die heb je immers al voor 200-400 euro), maar een high-end smartphone met een top off the bill CPU/GPU heb je al voor minder dan 500 euro, daar koop je haast geen equivalent game pc voor incl randapparatuur. En al helemaal geen laptop wil je het nog een beetje mobiel houden.

Voor mijn gevoel schaalt het allemaal niet zo lekker mee. 'vroeger' had je de eerste Atom CPU's, traag als poep als je er een jaartje later op terug moest vallen. Stoppen ze daar vervolgens wat Nvidia graphics bij middels het ION platform en het was eigenlijk nog steeds net niks. Heden ten dagen zitten we al aan embedded AMD graphics. Ik dacht werkelijk dat ik eindelijk een beetje fatsoenlijke gaming capaciteit had in een kleine vormfactor, tenzij je er een 'retro' machine van maakt komt het eigenlijk nog steeds niet mee. Leuk dat je er gedateerde games als LOL of CS:GO mee kan spelen, maar een beetje modern spel met hoge graphics zit er niet in.

Ik zie haast alleen maar vooruitgang op mobiele GPU kracht (wat betreft mobiele 'power'). Al is in het high-end segment daar de rek ook steeds meer uit (waar je tot een paar jaar terug elk jaar toch wel een nieuw toestel nodig had kun je nu met een high-end telefoon (als die het accu en scherm-wise zolang vol houdt) jaren mee toe zonder dat het traag aanvoelt.
De prijs helpt natuurlijk ook niet, zeker niet met die nieuwe abonnementsvormen waar je aan lening vast zit. Even 1000-1500 euro uit de mauw kloppen voor de top of the bill was met een abonnement van 50 euro in de maand toch beter te behapstukken.
Arm's Mali-gpu's zijn extreem efficient (mitst juist geimplementeerd). Een gamelaptop heeft al snel een stroombudget van 50 tot 80 watt, en een desktopkaart 150 tot 250 watt. Smartphone gpu's moeten het met 2,5 tot 4,5 watt doen, een factor 20 tot 100 minder. Daarbij moet je dus gigantische compromien maken, maar de performance per watt is dus ook significant hoger bij Arm's Mali (en Qualcomm's Adreno).

Mali-G77 heeft daarbij weer een gloednieuwe architectuur gekregen, Valhall. Als deze eind dit jaar op 7nm EUV nodes wordt geimplementeerd kan Samsung het nog best lastig krijgen om AMD's technologie met zo'n laag stroombudget competatief te krijgen. Aan de andere kant is het wel louter goed om meer concurrentie tussen mobiele gpu's te zien.
De Samsung SoC komt pas over 2 jaar uit en tegen die tijd heeft ARM waarschijnlijk al de G78 of misschien zelfs iets nieuwers. Meer concurrentie is altijd goed, maar eigenlijk ben ik voor gewoon gebruik wel tevreden met Mali graphics.

De reverse engineerde Lima en Panfrost drivers doen het ook vrij aardig en lijken sneller te zijn dan de binaire drivers van ARM zelf. Het is alleen jammer dat het zo lang heeft geduurd, voordat er goede ondersteuning in de mainline kernel terecht is gekomen.
Aan de andere kant zit AMD juist vaker in in de meer Low-end PC's die hierdoor van ARM concurrentie kunnen krijgen.
Het zet waarschijnlijk wel druk op Intel omdat het zowel ARM als CPU alternatief versterkt en omdat Intel ook veel integrated GPU's in goedkopere systemen levert.
Nvidea is enorm in de server markt, bijna alle supercomputers zijn gemaakt mbv Nvidia en een bedrijf dat ze recent hebben gekocht. Nvidea zit voornamelijk in zakelijke segmenten.
Goh, hoelang wachten we al niet op AMD om het NVIDIA lastig te maken.
Sta toch laatste tijd weer een beetje te glimlachen bij elk nieuwsbericht over AMD .
Veel positiviteit. En de nieuwe CPU-GPU lijnen zijn nu ook echt weer goed:) .
En meer deals rondom AMD betekent ook dat er veel nieuwe technieken en onderzoeken aan te komen zijn om bepaalde onderdelen nog sterker/kleiner/zuiniger/beter te maken wat voor de algemene groei toch ook weer goed is.

Voelt ook goed om intel weer een klein beetje te zien indimmen. Op het forum voor desktop advies in tweakers word nu nog zelden een intel aangeraden.

Ze hebben jaren alleen op de top gestaan en dat hebben vooral de consumenten gezien en gevoelt in de portemonnee en heb pas sinds de Ryzen serie weer het gevoel alsof Intel weer wat aan de prijs aan het doen is.

Markt technisch gewoon logisch als jou product de enigste is ( of het op de lange termijn logisch is/was) moet nog komen natuurlijk.
Nvidia zet op dit moment in op op autonoom rijden alleen hebben ze daar heel zware concurrentie waarbij hun eigen te veel legacy-instructies bevat. Die zijn te veel gebaseerd op gpu’s.
Het zou mooi zijn als het mobieltje in de toekomst de laptop en de pc zou kunnen vervangen. Met het idee zoals Microsoft ooit het Continuum dock aankondigde. Maar dan fulspec. Stel je eens voor.
mailen : check
bank verrichtingen : check
games : check
muziekproductie: check
digitale opnames : check

Ben ik nog iets vergeten?
Foto en videobewerkingen, office taken, media consumeren (muziek/film), internetten, coden, RDS, Teamviewer... Tja, zolang je eigenlijk geen PC games wilt kunnen spelen kun je met een mobieltje wel uit de voeten, en zelfs dat is mogelijk met streaming. En met iets als de Samsung Dex ben je dan al in 95% van de PC behoefte voorzien.

[Reactie gewijzigd door BLACKfm op 5 augustus 2019 15:32]

Foto en video bewerken? Echt?

Een beetje die selfies verrommelen oké, maar echt bewerken? Een aardige spreadsheet bewerken?

Een mailtje of briefje tikken ja, maar dan houd het op.
Met een lapdock zoals een Nexdock is dat prima mogelijk, gezien de hardware die er tegenwoordig in high-end telefoons zit. De specificaties van 6-8 GB aan geheugen en 128-512 GB aan opslag is wat je in een instaplaptop tegenwoordig ook wel mag verwachten.
Daar zou ik niets mee kunnen. Aardige filmpjes voor internet, prima. Professioneel? Echt niet.

Ik draai 2 TR's, volle bak, 100% bezetting op alle cores.
Dan ben jij de uitzondering, want de meeste mensen hebben zulke hardware absoluut niet nodig en doen ook niet aan professionele foto- en videobewerking. Dat zou je zelf trouwens ook wel moeten begrijpen.
Als je zo'n ding aan een monitor hangt ga je zien hoe slecht het is op een groter beeld.
Ja, het lijkt dat we hier te maken hebben met mensen die geen serieus werk op hun PC's doen.
Eens. Het lijkt er op de meeste mensen alleen een foon nodig hebben, ze mailen en appen, maar dan houd het op.
@Amadeus1966 @OxWax
Dat bedoel ik niet. Dat is al tijden mogelijk.
Bedoel het als volledig vervangen. Zoals het ooit de bedoeling was met de Microsoft Continuum Dock
En dan ook compleet als werkplek of gamingstation. Dus geen laptop of workstation meer. Maar alleen je telefoon, een dock en dan de complete pc /laptop experience inclusief gaming.
Ik denk dat dat er gewoon niet inzit.

Voor de standaard Office dingen zeker wel, maar alles waar je echt veel rekenkracht voor wilt hebben gaat gewoon beter zijn als het zn eigen voeding en koeling heeft.

Enige optie is dat je het zware werk in de cloud laat doen door een stel servers, maar dat is volgens mij ook niet echt wat je bedoelt.
Het idee is geweldig en de formfactors pc en laptop hebben vast niet het eeuwige leven. Maar goed, zolang ik nog 1,5 kilo aan koelend aluminium gecombineerd met een 500Watt voeding in mijn pc heb zitten zal het nog wel even duren.
Voor een deel is dat het eigenlijk al.
Veel taken waar je in het verleden een pc voor nodig had kan of doe je al op de smartphone.
Samsung DeX. Gooi een USB monitor in een Samsung S8 of hoger en je hebt gewoon een desktop computer met je telefoon als touchpad.
Nou ben benieuwd of amd gpu’s een meerwaarde zullen zijn in smartphons en tablets. De powerVR gpu’s in iphones presteerde ook altijd heel goed, maar die worden nu nergens meer in gebruikt?
In principe hebben de meeste soc's al een gpu met amd-technologie, adreno is een anagram van radeon.
Aah dat is best interresant. Al is amd er niet meer de baas over als ik het goed begrijp, en dit bericht draaid niet om qualcom soc’s, maar om die van samsung.
Heb altijd gedacht dat Qualcomm dat al deed met de Andreo GPU's (Radeon heeft exact dezelfde letters in de naam), of heb ik het mis ?
Heb altijd gedacht dat Qualcomm dat al deed met de Andreo GPU's (Radeon heeft exact dezelfde letters in de naam), of heb ik het mis ?
Andreo wil hier niets mee te maken hebben. Je bedoelt adreno waarschijnlijk.
Zou wel leuk zijn als de eerste soc met een amd gpu in de Galaxy s12 komt.
Beste wel vreemde zet van Samsung omdat ze volgens betrouwbare bronnen ook bezig zijn met een eigen GPU die revolutionair wordt omschreven. Deze zou zo snel zijn dat ie geschikt is voor smartphones tot vliegtuigen en zelfs supercomputers.

Samsung Has Designed a New Mobile GPU Architecture That Could be Used in Smartphones and Supercomputers, Says Analyst
https://wccftech.com/sams...e-gpu-grand-breakthrough/

Samsung could upset the AI and HPC markets with GPU entry
Nvidia has vaulted to the lead of the AI chip race with

https://www.networkworld....rkets-with-gpu-entry.html

Kan niet goed plaatsen hoe het dan zit met de samenwerking met AMD.


Om te kunnen reageren moet je ingelogd zijn


OnePlus 7 Pro (8GB intern) Nintendo Switch Lite LG OLED C9 Google Pixel 3a XL FIFA 19 Samsung Galaxy S10 Sony PlayStation 5 Smartphones

'14 '15 '16 '17 2018

Tweakers vormt samen met Tweakers Elect, Hardware Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True