Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 31 reacties, 12.238 views •

Samsung heeft een nieuwe octacore-soc in zijn Exynos-lijn aangekondigd. De Exynos 5420 bestaat net als zijn voorganger uit vier Cortex A15- en vier Cortex A7-kernen, maar dan met hogere kloksnelheden. Ook de gpu is sneller en er is meer geheugenbandbreedte beschikbaar.

Het Cortex A15-cluster draait op 1,8GHz terwijl het A7-cluster zijn werk doet op 1,3GHz. Dat is respectievelijk 200MHz en 100MHz meer dan bij de Exynos 5410, die in een select aantal markten voor de Galaxy S4 gebruikt wordt. De twee clusters werken in een zogenaamde big.Little-opstelling: voor intensieve rekentaken wordt het A15-cluster ingeschakeld, terwijl het A7-cluster ingezet wordt als de belasting lager is.

Het is niet bekend of Samsung de implementatie van de cache coherent interconnect of cci aangepast heeft bij de 5420. Op papier is het dankzij die cci mogelijk om de acht rekenkernen op meerdere manieren in te zetten, bijvoorbeeld door een mix van A15- en A7-cores actief te hebben. Bij Samsungs voorgaande octacore, de 5410, was echter enkel cluster migration mogelijk: de cpu-clusters werden in hun geheel aan of uit gezet en konden niet gelijktijdig actief zijn. Samsung heeft de cci-bug nooit erkend en maakt in het persbericht over de nieuwe Exynos er ook geen melding van.

Op gpu-vlak is Samsung overgestapt van leverancier Imagination Technologies naar ARM. De Exynos 5420 heeft namelijk een Mali T628-gpu aan boord in een opstelling met zes cores. Deze is volgens Samsung tweemaal zo snel als de tricore PowerVR SGX544-MP3 in de Exynos 5410. Ook de geheugeninterface is op de schop gegaan: deze levert nu een maximale bandbreedte van 14,9GB/s.

De nieuwe soc kent verder nog enkele foefjes. Zo is er ondersteuning voor het draadloos aansturen van een beeldscherm via WiFi Display en verder heeft Samsung nog een stukje hardware toegevoegd dat zich bezig houdt met beeldverwerking. Hoe deze Multi Image Compression of MIC-technologie precies werkt, meldt het bedrijf niet, maar het zou voor een lager stroomgebruik moeten zorgen als content weergegeven wordt waarbij de scherminhoud frequent ververst moet worden.

De Exynos 5420 zal vanaf augustus in grote aantallen geproduceerd worden en wordt gemaakt op een 28nm-hkmg-procedé. Welk apparaat als eerst met de soc uitgerust zal worden is nog niet bekend.

Exynos 5420

Reacties (31)

Klinkt vreemd, maar met deze specificaties van soc denk ik aan een passief gekoelde AIO. Voor kantoorwerk moet dit genoeg zijn.
Qua kracht zal de proc zeker geen problemen hebben met kantoorwerk. Jammer dat er maar zo weinig software voor ARM gecompileerd wordt (en dan praat ik dus over desktop-OS'en) want met Windows RT of een Linux ARM distro kan je gewoon normaal werken.
Steeds meer kantoor software is gewoon webbased, dus buiten Office heb je voor het meeste kantoorwerk doorgaans relatief weinig nodig.

Een eventueel groter probleem voor kantoorwerk (zeker voor grotere bedrijven) lijkt mij management en security ARM / Windows RT gebaseerde systemen. Ik heb geen idee hoe dat werkt op ARM en of het vergelijkbaar is aan wat Intel en Microsoft (full-fledged Windows Professional) biedt.

[Reactie gewijzigd door knirfie244 op 23 juli 2013 08:32]

Waarom zou security een probleem zijn als het toch allemaal webbased is?

ARM gebaseerde machines komen meestal het domein niet in en werken via remote protocollen. Kwestie van je servers zo in stellen dat er geen data via remote op de client kan komen.

Daarnaast vallen ze onder Mobile Management en die gaan beveiligingstechnisch misschien nog wel verder dan mogelijk is op mijn laptop. Mobile devices kun je makkelijk volledig wissen, terwijl dat op mijn laptop toch echt niet gaat.
Indien je een linux distributie neemt maakt het zelfs niet uit welke architectuur er onder zit. Beheer blijft identiek.
Is dit in de praktijk ook zo?
Android, raspberry pi? In de praktijk genoeg aanwijzingen dat het werkt! Raspberry kan een normale linuxdistro aan, en Android is een uitgeklede versie van linux.
Steeds meer kantoor software is gewoon webbased, dus buiten Office heb je voor het meeste kantoorwerk doorgaans relatief weinig nodig.
Maar nog lang niet alles, je kan niet overstappen als veel software die je gebruikt al werkt maar hoop ook nog steeds niet, alles zal moeten werken voordat je kan overstappen als bedrijf. En liefst allemaal ook nog ruim getest en bewezen te werken. Bedrijf gaat niet over een nacht ijs, eerder jaren. ;)
Eigenlijk zou het wel mooi zijn als ARM in desktops en laptops gebruikt wordt.

Want dat zou betekenen dat Intel eindelijk concurrentie krijgt.

En door die ontwikkelingen zou de Mali GPU misschien ook wel met hun desktop tegenhangers kunnen concurreren.
Momenteel geeft het ARM ontwerp de hoogste performance voor mobiele devices. Intel en Via doen daar eigenlijk niet mee.

AMD heeft momenteel zeer goede desktop CPU's en APU's. Toch weet AMD vrijwel geen marktaandeel van Intel af te pakken en dat komt simpel gewoon omdat ze niet de snelste zijn. Kijk maar naar de videkaarten, sinds de Titan is gereleased neemt het marktaandeel van nVidia weer toe, terwijl dat van AMD aan het terug lopen is..

De Mali GPU zal waarschijnlijk op de desktop geen potten weten te breken. Kijk alleen maar naar hoeveel miljarden Intel in zijn GPU development heeft gestopt. De resultaten beginnen wel zichtbaar te worden, maar ze hebben nog een lange weg te gaan als je kijkt naar de 2600K, 3770K en 4770K in de tweede benchmark van de Haswell Review..

Wel zou een dergelijke ARM APU zijn weg kunnen naar embedded devices waar nu vooral VIA C7 en de Intel Atom worden gebruikt. Dat is een markt welke op zich aansluit bij de mobiele markt en waar zuinigheid een belangrijke factor is. Maar ARM produceert zelf geen processors, zij ontwerpen alleen chips welke in licentie worden gegeven aan andere producenten zoals Samsung en Qualcomm. Dat zorgt toch voor een fragmentatie met als gevolg dat de concurrentie vrij minimaal zal zijn..

Momenteel is AMD de enige partij welke voor een beetje concurrentie kan zorgen, maar AMD weet niet precies wat het wil althans zo komt het een beetje over, want recentelijk hebben ze ook de ARM markt betreden. En daar zwaaien Samsung, Qualcomm en nVidia (Tegra's) als met de sceptor met als gevolg dat AMD veel R&D geld en resources in ARM development moet stoppen en wat dus niet gaat naar de desktop of GPU tak..

Zolang Intel op de desktop een marktaandeel heeft van meer dan 80 procent, zal het nooit onder de indruk zijn van de concurrentie. AMD is inderdaad wat goedkoper, maar niet voldoende als je kijkt naar het geweld van de Intel Core processors. Toegeven 80% van de huishouden kan meer dan prima vooruit met een AMD APU. Applicaties en games weten zelden efficient gebruikt te maken van meer dan 2 cores..
Momenteel geeft het ARM ontwerp de hoogste performance voor mobiele devices. Intel en Via doen daar eigenlijk niet mee.
Um, Clover Trail(+)? Valley View? Temash?

ARM's ontwerpen geven zeker niet de beste performance voor mobiele devices, Qualcomm's Krait 300 core performt vergelijkbaar met ARM's Cortex A15, en is veel zuiniger.
Dat AMD niet de snelste is maakt in de bulk markt niet uit. De bulk markt is nog steeds de zakelijke markt en voor de werkplekken waar dergelijke processoren komen is alles al vrij snel overkill. Snelheid van het netwerk en de gebruikte policies zijn dan al snel de bottleneck.

Bedrijven willen gewoon degelijke apparaten, Intel heeft de naam degelijk en betrouwbaar te zijn dus kopen ze die.

AMD is misschien wel net zo degelijk, maar zolang Intel betrouwbaar blijft is er voor de meeste bedrijven geen incentive om eens een andere processor fabrikant te gaan proberen.
Applicaties en games weten zelden efficient gebruikt te maken van meer dan 2 cores..
Als je me dit 4-5 jaar geleden had gezegd, had ik je zo geloofd... Maar anno 2013, een tijd waar de meeste actieve pc-gebruikers een quad-core pc hebben, weet ik vrijwel zeker dat deze stelling (vooral in games) niet meer waar is..
Eigenlijk zou het wel mooi zijn als ARM in desktops en laptops gebruikt wordt.

Want dat zou betekenen dat Intel eindelijk concurrentie krijgt.

En door die ontwikkelingen zou de Mali GPU misschien ook wel met hun desktop tegenhangers kunnen concurreren.
Eerste arm laptops van samsung staat al tijdje in pricewatch. En verder zijn er al jaren ARM based laptops in omloop van andere minder bekende merken, 10" ARM notebooks beginnen bij ongeveer 80 a 90 euro(retail), meestal staat er dan android op, maar zijn meestal gebaseerd op bekende populaire chipsets waar bijvoorbeeld ook ubuntu op kan draaien, zijn roms beschikbaar.

[Reactie gewijzigd door mad_max234 op 23 juli 2013 09:51]

Ja en dat is goedkope bucht. Te weinig geheugen, slechte fabricagekwaliteit, etc ... Iets wat je een keer gebruikt en uit ongenoegen in de kast/hoek gooit en nooit meer naar omkijkt.
Qua kracht zal de proc zeker geen problemen hebben met kantoorwerk.
Op zich niet (hij zal ergens in de buurt van een AMD E-350 performen), maar voor dertig dollar (=minder dan dit soort high-end SoC's) koop je ook een veel snellere Ivy Bridge Celeron of AMD A4. Bij desktops zit je niet met de koelingsbeperkingen van een telefoon/tablet, dus kan je daar goedkope en snelle chips in zetten, ipv (relatief) trage en zuinige.

[Reactie gewijzigd door Dreamvoid op 23 juli 2013 11:29]

Ja, ik denk dat je hiermee een heel eind komt.
Dat is mooi, dan heb je straks je PC bij de hand, zie de recente ontwikkelingen van Ubuntu phone.
Wil ik wel eens proberen... :-)
Nu al vernieuwd terwijl de vorige octacore niet eens te verkrijgen was.
Welk apparaat als eerst met de soc uitgerust zal worden is nog niet bekend.
Dat is wel bekend. Dat wordt namelijk de Samsung Galaxy Note III.
Een passief gekoelde AIO... of gewoon een vertegenwoordiger die - aangekomen op kantoor - z'n telefoon aansluit op een dock en daar z'n werk op doet?

In die optiek zie ik ook nog wel wat in een dual-SoC in een telefoon, waarbij je de tweede SoC bijvoorbeeld alleen inschakelt als de voeding aangesloten is. Of breng de Turbo-knop weer terug?

Hoe krachtiger mobiele apparatuur wordt, hoe meer mogelijkheden.
Interessant dat Samsung weer terug is naar Mali gpu's. Er zat ook een Mali (T604) in de Exynos 5250 van vorig jaar, en er werd gespeculeerd op diverse sites/forums dat Samsung er niet tevreden mee was en daarom terug ging naar Imagination' s PowerVR SGX544. Nu gaan ze dus alsnog verder met ARM gpu's.

[Reactie gewijzigd door Dreamvoid op 23 juli 2013 09:23]

Ik mag hopen inderdaad dat ze die cache coherence interconnect gefixed hebben, anders gooi je de helft van de voordelen van het big.LITTLE concept overboord! (Namelijk het efficient migreren van processen tussen de clusters)

Zonder de cache coherence tussen de twee quadcore clusters wordt het migreren van processen heel erg duur (in tijd en dus in energie); dan moet alle data van het proces in de cache eerst vanuit de ene cluster geheel teruggeschreven worden naar het (off-chip) geheugen, waarna het andere cluster het kan gebruiken en allemaal weer opnieuw moet gaan cachen. Wanner de CCI wel werkt dan werkt het big.LITTLE concept heel erg mooi; bijvoorbeeld de A15 core stopt met executeren van een proces en een A7 core pakt het op waar deze gebleven is. De A15 core kan dan vrijwel meteen uitgeschakeld worden, maar zijn cache blijft nog actief. Door de CCI zal de A7 dan automatisch de data uit de A15's cache gebruiken (en waarschijnlijk daarmee zijn eigen cache vullen - afhankelijk van het gebruikte cache coherence protocol). Op een gegeven moment is alle data uit de A15's cache gemigreerd en kan deze ook uitgeschakeld worden. Alhoewel ik me bij dat laatste dan afvraag wat voor logica ze gebruiken om dat in de gaten te houden, of dat ze die dan toch maar aan laten staan met een soort idle sleepstate.
Leuk, interessant, top voor Samsung (ben fan..) maar het eerste wat daarna in me opkomt is "overkill?

De hele reden dat de populariteit van de high end smartphones terugloopt is omdat de smartphones van een jaar geleden nog prima voldoen. Vrijwel alle apps draaien prima op bijvoorbeeld een S3, en de FullHD resolutie van smartphones zou je nu al als overkill kunnen beschouwen.

De enige plek waar nog verbetering mogelijk is zijn de camera's, niet de CPU's en GPU's lijkt me.
Deze chip kan ook in netbooks en tablets verwerkt worden. Voor telefoons was in elk geval de 5410 geen ideale keus (wel snel, maar zuipt stroom), maar misschien is deze 5420 beter.

[Reactie gewijzigd door Dreamvoid op 23 juli 2013 11:21]

De enige plek waar nog verbetering mogelijk is zijn de camera's, niet de CPU's en GPU's lijkt me.
Dit lijkt mij een zeer ongelukkige uitspraak te zijn. Denk je nu echt dat we binnen 100 jaar dezelfde CPU's en GPU's gaan rondlopen?
Erg bruut als ik zo de specs lees. Ik vraag me alleen stof een CPU met zes Mali-cores niet teveel van het goede is. De octacore staat (tot dusver) niet bekend om energiezuinigheid, laat staan als je dan een zes kernig beest van een CPU er nog bij bouwt. De GPU van de vorige octacore was al zowat de beste in zijn segment.
Ik ben benieuwd wat de benchmarks gaan zeggen over dit nieuwe monster!
Ik vraag mij af of deze trend van steeds meer en snellere cores ook zal leiden tot betere multi-core functionaliteit in de (bijvoorbeeld) Android-based software.
Zo zou Android wel eens een serieuze concurrent kunnen worden voor de x86 windows laptops en budget-pc's.
Een HTPC met 8 cores en een aparte mobile gpu (iGPU voor je desktop, mobile GPU voor video en games) zou zo een stuk zuiniger zijn met gelijkwaardige prestaties die je nu haalt met APU's en Atom-ION combinaties.
Zo zou je ook een laptop kunnen maken die 24 uur lang op een batterij kan draaien maar net zo goed presteerd als een gemiddelde Core i3 of AMD equivalent.

Het grote probleem bij x86 based software is namelijk nog steeds de zeer beperkte multi-core ondersteuning.
Zelfs bij mijn eigen pc's heb ik slechts een paar programma's die multi-core ondersteunen en de meeste daarvan zijn de laatste generatie games, de rest vooral video-editing en conversie software.
Door Android games te lanceren met degelijke multi-core ondersteuning zou dit wel eens het meest populaire mobiele gaming platform kunnen worden.
Een Android gaming laptop zou ongeveer gelijk geprijst zijn aan een Xbox One of Playstation 4, maar zuiniger en mobiel met een eigen scherm.
Een tablet of phablet parkeer je op een mobile dockingstation met extra batterij en uitgangen voor je game controllers en je kan uren gamen waar je ook bent.
En je telefoon klik je als een soort vizier op een VR-helm met ingebouwde surround speakers, de motion sensor in je telefoon registreerd de bewegingen van je hoofd en dan alleen nog even je optical gun aansluiten en je zit midden in Call Of Duty VR: Total Surround 3D Immersive Gaming.

Het enige wat je nodig hebt is iemand met de visie en de financiele backup om het mogelijk te maken.
Al deze technologie bestaat al jaren in een of andere vorm.
Dus, wie wordt de Steve Jobs van de Android wereld?
De Androidworld Store met de Even More Genius-bar, de SciFiPhone en SciFiPad, de VR mmorpg werelden zoals World of StarCraft en Massive Effects, de Augmented Reality apps en visor en natuurlijk last-but-not-least virtuele 3D porno om de meer hormoon gedreven onder ons blij te maken.
Wat dacht je van Google Glass, die brengt al jouw ideen wel erg dichtbij. Het is nog niet zover maar je ziet al wel waar het dreigt heen te gaan.
Het grote probleem bij x86 based software is namelijk nog steeds de zeer beperkte multi-core ondersteuning.
Multicore is op x86 desktops nu al tien jaar gemeengoed, alle software die baat heeft bij multithreaded code gebruikt dat al. Probleem is dat veel bewerkingen in software gewoonweg niet paralleliseerbaar zijn. Dat los je niet op door een andere instructieset te gebruiken.

[Reactie gewijzigd door Dreamvoid op 23 juli 2013 13:30]

Dat los je niet op door een andere instructieset te gebruiken.
Toch wel! De TSX instructieset in sommige modellen van Intel's Haswell chips maken de synchronisatie tussen cores veel sneller: http://software.intel.com...ynchronization-in-haswell

Ze gaan er "optimistisch" vanuit dat er geen conflicten zijn en de cores blijven dus verder werken in plaats van altijd te wachten op de andere cores. Indien er toch een conflict is (was) dan begint men opnieuw, maar dat is doorgaans erg zeldzaam. Dit resulteert in tot 5 keer snellere synchronisatie: http://www.sisoftware.co.uk/?d=qa&f=ben_mem_hle
Probleem is dat veel bewerkingen in software gewoonweg niet paralleliseerbaar zijn.
Dat wordt vaak misbruikt als (vals) excuus. De overgrote meerderheid van algoritmes is wl paralleliseerbaar, desnoods met een andere aanpak. Dat gezegd zijnde, is het veel werk om goede prestaties te halen, en correctheid te blijven garanderen (zogenaamde 'race conditions' kunnen lang onopgemerkt blijven). Technologie zoals TSX helpt om zowel hoge prestaties te behalen en correcte uitvoering te vereenvoudigen, maar is nog maar een paar maand beschikbaar.

Ik snap dus wel dat doorsnee developers momenteel veel zaken als 'niet paralleliseerbaar' bestempelen, door praktische complicaties, maar dat betekent dus niet dat het probleem zelf niet paralleliseerbaar is!

[Reactie gewijzigd door c0d1f1ed op 23 juli 2013 15:11]

Wat ik hieraan niet begrijp: we hebben 4 sterke kernen en 4 zuinige.
Ik kan me voorstellen dat je 1 zuinige kern hebt voor de achtergrond taken. Zodra het dan weer feest wordt en alle zeilen bijgezet moeten worden, worden de 4 sterke kernen wakker, verdelen de taken en gaan aan de slag.
De gedachte dat je ook een mix aan de slag kunt laten gaan van b.v. 3 sterke en 2 zwakke kernen zoals in het artikel gesteld wordt lijkt me nogal utopisch en vergelijkbaar met het combineren van een IGP met een externe kaart... wat ook maar zelden werkt.

Maar ik heb geen verstand van processorarchitecturen: hoe zien de experts dat?

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True