Samsung introduceert nieuwe Exynos-soc op 32nm

Samsung heeft een nieuwe versie van zijn Exynos-soc voor smartphones en tablets aangekondigd. De Exynos 4212 wordt op een kleiner procedé geproduceerd dan zijn voorganger en heeft daarbij een hogere kloksnelheid en snellere gpu.

Samsung Exynos soc fpaSamsung introduceerde de nieuwe chip op zijn Mobile Solutions Forum, dat jaarlijks in Taiwan gehouden wordt. De Exynos 4212 moet de 4210, die Samsung momenteel gebruikt in de Galaxy S II, opvolgen. De 4210 draait in de Galaxy S II op 1,2GHz en wordt ook in de Galaxy Note en Galaxy Tab 7.7 gebruikt, waar hij op 1,4GHz draait. De 4212 moet standaard op een kloksnelheid van 1,5GHz gaan draaien.

Ook de gpu is volgens Samsung een stuk sneller. Of het om een opgevoerde versie van de Mali 400 uit de 4210 gaat, is niet duidelijk, maar de prestaties zouden bij het renderen van 3d-graphics vijftig procent hoger liggen dan bij zijn voorganger.

Deze hogere prestaties zouden vanwege een nieuw productieprocedé niet resulteren in een hoger verbruik. Waar de 4210 op een 45nm-procedé gefabriceerd wordt, maakt Samsung bij de 4212 gebruik van een 'high-K metal gate'-procedé van 32nm. Volgens de fabrikant maakt dit de 4212 dertig procent zuiniger dan de 4210. Samples van de chip staan voor het vierde kwartaal van dit jaar in de planning.

Door Wout Funnekotter

Hoofdredacteur

29-09-2011 • 11:37

25

Reacties (25)

25
25
14
3
0
2
Wijzig sortering
Nice oO volgens site Samsung http://www.samsung.com/gl...844&partnum=Exynos%204210 is dit ook weer een Cortex A9; dus hij past in de oude cortexa9 'sockets'?. Weet iemand toevallig hoeveel werk per Hz een ARM verzet en een x86? Want nu wordt er vergeleken op hoeveelheid Ghz maar is dat niet krom?

[Reactie gewijzigd door BoozeWooz op 26 juli 2024 16:39]

ARM tegen x86 vergelijken direct is ook krom. De cortex A9 zul je vast willen weten maar dan tegen een atom of een ulv processor? Of misschien een pentium 2 for that matter :p Persoonlijk denk ik dat ie minder zal zijn dan de high end nieuwe atoms gelijk geklokt maar wel een stuk betere performance per watt.
De verschillen tussen de x86 chips en de ARM chips worden iedere generatie kleiner, althans als je de performance per Watt maat gebruikt. Het is in middels zo dat als je (theoretisch gezien) een ARM chip van even veel energie zou voorzien als een beetje x86 chip de x86 chip het simpel weg zou af leggen tegen de ARM chip.

Nu is dat natuurlijk redelijk krom ARM heeft op het moment niet het doel om een ~125W chip te maken en ze zullen om die reden dan ook nog even geen hele grote bedreiging zijn voor de Intel/AMD producten. Maar wat je wel ziet si dat de snelst groeiende product categorieën in de microprocessor aangedreven consumenten apparatuur (tablets en smartphones) eigenlijk exclusief op ARM chips werken van wegen hun enorme goede prestatie per Watt verhouding ten opzichte van de x86 producten die op dit moment beschikbaar zijn.
En het risico is groot dat er binnen niet al te lange tijd voldoende mensen zijn die het aandurven (op basis van hun goede ervaringen met de ARM chips in hun mobiele apparatuur) om hun desktop/laptop te vervangen door een model met een ARM chip.

Het grote voordeel van x86 is de pure kracht die het product kan bieden maar als ik dat vergelijk met wat een moderne ARM chip kan doen dan is de noodzaak voor die pure kracht ten opzichte van laag energie verbruik erg klein. Natuurlijk is het nodig voor zwaar reken werk en bijvoorbeeld voor uitgebreide games. Maar je kunt al met gemak films kijken op een product met een ARM chip (ook 1080p films). Flash en alle huidige internet gebaseerde applicaties werken gewoon op een ARM chip en je merkt het verschil in performace met een x86 vrijwel niet. Ook emails en bijvoorbeeld een document bewerken kan zonder problemen op een ARM chip.
Dat is voor ruim 70% van de thuis gebruikers meer dan voldoende voor hun laptop/desktop gebruik, en dan is het grote verschil dat ik een veel kleiner lichter systeem kan maken (geen active koeling etc) dat minder energie nodig heeft om zijn werk te doen en dat ook nog eens goedkoper is per processor en dus makkelijker als alternatief te verkopen.

Het is dan ook niet zonder reden dat bijvoorbeeld Intel zo veel aandacht besteed aan het zuiniger maken van hun producten en op een door veel investeerders bezochte developer bijeenkomst een chip laat zien die op zonnecellen werkt. Dit wordt gedaan om deze investeerders duidelijk te maken dat men bij Intel niet stil zit en probeert terug te slaan naar ARM toe.
Films kijken en games wordt natuurlijk niet gedaan door de Cortex-CPU kernen. Maw: Voor een goede vergelijking Intel vs. ARM moet veel meer meegenomen worden: Welke GPU zet Samsung op de SoC (de Mali is lichtjes inferieur aan de PowerVR's die TI op de OMAP's zet), welke hardware-A/V codecs zetten ze er op, hoe optimaliseren ze de software voor die kernen enz.

Ook de manier waarop ze de chip zuiniger maken verschilt nogal: Bijv. TI zet er twee realtime Cortex M3 procs op, nVidia zet er een extra A9 op halve snelheid op, en Samsung en Apple doen vast weer iets anders. Intel heeft vziw. daar NEC voor ingehuurd, omdat ze er zelf weinig tot geen ervaring mee hebben. Maar bij Intel hebben ze weer betere "3D"-transistors (waarbij het raakvlak geen "plat vlak is", maar een soort trapje) die binnenkort op de markt komen.

Maw: Het "succes" van de ARM-SoC's komt er vooral uit voort dat voor zware taken de CPU weinig tot niets hoeft te doen, omdat gespecialiseerde delen van het systeem die taak van de CPU overnemen. Daarom zegt een vergelijking van alleen de CPU's bijzonder weinig tot helemaal niets, en de mHz en instructieset zegt ook vrij weinig. Op sommige vlakken heeft de ARMv7 instructieset (van de Cortex A9) complexere bewerkingen dan bijv. de x86-instructieset, terwijl die laatste als 'complexer' te boek staat.
Toen ik m'n hd2 net had eind 2009 heb ik wat tests gedaan door een .Net compact framework winforms app te maken en die op verschillende platformen te draaien (draait nl. ook op de windows desktop). Het was een single threaded appje met een simple lus en ik heb die gedraaid op mijn Core i7(2.6Ghz), Atom netbook (1.6Ghz) en de HD2 (1Ghz snapdraggon).

Met int optellen in een lus
i7 28ms, Atom 77ms, HD2 271ms

Met double optellen in een lus
i7 66ms, Atom 267ms, HD2 3571ms

Met int vermenigvuldigen in een lus
i7 27ms, Atom 224ms, HD2 242ms

Met double vermenigvuldigen in een lus
i7 56ms, Atom 273ms, HD2 5267ms

Er zitten wat onnauwkeurigheden in deze manier van testen, maar het geeft wel een globaal idee van het snelheidsverschil tussen de platformen. Tevens zie je dat het vergelijken nogal lastig is, aangezien de Atom veel sneller is met int optellen maar bij vermenigvuldigen van int nog maar net iets sneller is dan de ARM. Op het gebied van floating point moet de ARM in de HD2 het toch echt afleggen. Maar floating point berekening worden tegenwoordig steeds vaker ge-offload naar de GPU shaders. En ik dacht laatst ook al te zien dat er telefoons waren met Open CL support.

Het grootste voordeel voor de x86 is toch wel het kunnen draaien van x86 software, de enorme base aan windows software die er is. Maar dat kan natuurlijk snel veranderen als de appstores vervangers hebben voor Office pakketten, Audio en Video editting, development omgevingen etc. etc. Ook goede muis en KBD support in deze apps zou nodig zijn om ARM populair te maken voor de desktop. Android lijkt in die richting te gaan met de EEE Pad transformer. Ik ben benieuwd of ze dat ook voortzetten. En ook Windows 8 met ARM support kan er wat aan doen, mits er genoeg Metro apps komen.

edit:
@DLGandalf
Heb je helemaal gelijk in. Maar native maken voor de ARM heb ik, geen ervaring mee. Plus de CLR van MS is voor de basic dingen zoals optellen vermenigvuldigen en lussen wel goed geoptimaliseerd voor ARM en x86. ARM doen ze n.l. al sinds eind 2002. Een basic int of float lus heb ik ook al eens getest in native Delphi en vergeleken met .Net. De int loop was sneller in Natuive en de float sneller in .Net. Dit is te verklaren omdat Delphi compileerd voor oudere x86 architectuur en de JIT in de CLR van microsoft compileerd voor het platform waar de software op gerunned wordt.

[Reactie gewijzigd door PuzzleSolver op 26 juli 2024 16:39]

Niet om je werk af te kraken, maar de getallen worden behoorlijk beinvloed door de behaalde efficientie van CLR (common language runtime van .Net) op de verschillende platforms. Beter zou zijn om native talen te gebruiken en die zoveel mogelijk 1 op 1 te porten. Of beter nog, assembly.
Mili 400 outperformed alles wat er verder in mobieltjes zit anders:
http://www.anandtech.com/...est-smartphone-gpufor-now

Enkel de iPad2 niet, maar de iPhone 4s/5 zal zeker niet dezelfde score halen. Waarschijnlijk wel een stukje hoger als de SGS2 maar zeker niet iPad2 achtig, zal slomer draaien en met slechter (energiezuiniger) geheugen...
Misschien is het niet goed te vergelijken op de manier die @ BoozeWooz vroeg. Maar met jullie uitleg (@ Rob Coops & Kidde) begrijp ik de materie zelf nu ook wel wat beter.

Ik (en met mij velen, denk ik) zat zelf ook met zo'n vraag namelijk.
Haha, want je wil even je telefoon openmaken om de CPU te wisselen, aangezien de sockets mogelijk overeenkomen?

Deze pareltjes worden mBGA gemonteerd, vast aan het moederbord dus ;)

Megahertz vergelijkingen zijn altijd krom, bijna zo iets als cilinders, zonder inhoud zegt het niets.

Dit is in ieder geval een stuk sneller als bijvoorbeeld een Pentium 3 qua raw CPU power, en de GPU een stuk vlotter als een Geforce 1.
Haha, want je wil even je telefoon openmaken om de CPU te wisselen, aangezien de sockets mogelijk overeenkomen?
Dat heb je gelijk in, maar als het uitwisselbaar is door de fabriaknt is dat ook al fijn hoor, stel ze hebben een overschot aan deze nieuwe SoC's, en een te kort aan de oude versie, kan je met gemak wisselen van SoC zonder dat er verder iets aan de telefoon veranderd hoeft te worden...

Voordelen van dezelfde sock + afmeting voor de consument: nee
Voordelen van dezelfde sock + afmeting voor de fabriaknte: ja

edit: alleen de CPU wisselen wordt lastig want het is een SoC je wisseld dus wel meer dan een CPU ;)

[Reactie gewijzigd door watercoolertje op 26 juli 2024 16:39]

Helaas is het geen CPU die dus altijd dezelfde functie heeft.

Het is een SoC. Je moet een SoC meer als een moederbord zien op chipformaat.
Een SoC kan dus weer totaal andere hardware erin hebben en dus andere functies en pinnen hebben.
Lees me post anders nog een keer, ik zeg overal SoC en een half uur voor je reactie heb ik me reactie nog aangepast waardoor het NOG duidelijker is dat ik prima weet wat een SoC is en de de CPU daar juist onderdeel van is ;)
Beetje krom om een System on a chip met een Desktop PC uit de jaren 90 te vergelijken.....

Zou wel hard zijn, een MS/DOS Phone met x86 processor, Win3.1 apps en soundblaster ondersteuning voor de telefoon functies.
Nokia had er eentje. De 9110. Met een embedded i386 kloon van AMD er in.
Nou de SoC mag dan weer een A9 bevatten .. maar deze zit vast niet in een socket :)
Samples van de chip staan voor het vierde kwartaal van dit jaar in de planning.
Dus Q1 in producten terug te vinden? En (zeker) niet dit jaar dus, jammer had het een leuke verassing gevonden hem in de neiuwe Nexus te zien :D

Sneller is altijd welkom, en zuiniger ook, kan iedereen die voor zuinigheid gaat dat ding terug klokken naar 1.2Ghz (meer dan genoeg in Android devices) en ~50% zuiniger zijn dan de oude exynos op gelijke snelheid :D En iedereen die extra performance wil klokt dat ding naar 2Ghz :D

@BoozeWooz, is niet te vergelijken...

[Reactie gewijzigd door watercoolertje op 26 juli 2024 16:39]

Als samples Q4 '11 is, zal massaproductie waarschijnlijk helaas pas in S2 '12 zijn neem ik aan. Dus als er producten komen in Q1, zullen het er weinig zijn, mogelijk met bugjes en duur.
Anoniem: 145867 29 september 2011 12:34
Dit wordt echt voor de Galaxy S3.... Ik moet echt dit keer van mijn portomonnee bij de S2 blijven. Want ik wil een beetje sparen :)

Galaxy S3:
SoC: Exynos 4212
Display: 1280x800 Super Amoled Plus op 4,3 tot 5 inch
OS: Android Touchwiz Sandwich Icecream zoiets als op Honeycomb.

Uiterlijk: Geen hardware buttons voorop?

HDMI + Bluetooth muis + BLuetooth keyboard waardoor je spontaan op een 1920x1200 gewoon Honeycomb voor je tablet te zien krijgt??

Ik zie wel waar de toekomst heen gaat....
Ik denk dat het ook in die richting zal gaan, wat ik alleen maar kan toejuichen.
Hoop echter wel dat ze met een beter batterijduur komen, dat is het enige minpuntje eigenlijk
idd, hopelijk heeft een van de vele LiOn / batterij-verbeteringen 'uit het lab' waar Tweakers zo onder ander maanedlijks over bericht het eindelijk tot massa-productie geschopt! Van de week nog weer een bericht over 8x zo grote opslag voor LiOn accu's... Blijkbaar is het een stuk makkelijker chips beter te maken dan accu's of displays ;(
Anoniem: 145867 @kidde30 september 2011 09:59
LiOn is wel beetje oud he.. Het zijn allemaal Polymer batterijen geloof ik.. Dus Lithium Polymer in plaats van Lithium ion.
iedereen is hier bezig over rekenkracht maar waarschijnlijk gaat deze ook veel minder verbruiken zodat we weer meer batterijduur hebben
Ik betwijfel of de SoC veel besparing op gaat leveren. De grootste gebruiker in een telefoon is nog altijd het scherm. En zolang fabrikanten ze alleen maar groter maken, gaan we denk ik geen wereldschokkende batterijduur zien bij nieuwe telefoons.
Gelukkig heeft 3M recentelijk een smak geld geinvesteerd in PixelQi; http://techcrunch.com/201...-with-investment-from-3m/
iedereen is hier bezig over rekenkracht maar waarschijnlijk gaat deze ook veel minder verbruiken zodat we weer meer batterijduur hebben
Klopt, de 4212 is maar liefst 30% zuiniger en presteert 50% beter (bij 3D graphics) ;)

"Deze hogere prestaties zouden vanwege een nieuw productieprocedé niet resulteren in een hoger verbruik [...] Volgens de fabrikant maakt dit de 4212 dertig procent zuiniger dan de 4210"

Op dit item kan niet meer gereageerd worden.