Anandtech: Exynos 5 Dual-soc niet zuinig genoeg voor smartphones

Anandtech heeft een aantal tablets aan rigoureuze energiemetingen onderworpen. Daaruit blijkt dat de Nexus 10, met Samsungs Exynos 5 Dual-soc aan boord, niet bepaald zuinig is. Onder andere de processor blijkt een flinke wissel te trekken op de accu.

De Exynos 5 Dual-soc is gebaseerd op de Cortex A15-architectuur en heeft een kloksnelheid van 1,7GHz. Chips die op de Cortex A15-architectuur zijn gebaseerd, zouden over enige tijd ook in smartphones gebruikt moeten worden, maar de energiemetingen van Anandtech lijken aan te tonen dat de Exynos 5 Dual in zijn huidige vorm niet in een smartphone geplaatst kan worden. De chip is razendsnel, maar verbruikt in de korte tijd die nodig is om een benchmark te voltooien, alsnog meer energie dan Intels Atom Z2760 of Qualcomms Krait-soc. Het verbruik kent dusdanig hoge pieken dat het moeilijk voor te stellen is dat de chip voldoende gekoeld kan worden als hij in een smartphone zit.

Verder blijkt uit een andere test dat de Exynos 5 Dual-soc een tdp heeft van rond de 4W. In die test wordt geprobeerd om het cpu- en het gpu-gedeelte tegelijk te belasten. De chip verlaagt echter automatisch de kloksnelheid van de cpu als de gpu belast wordt, waardoor het verbruik van de soc rond de 4W wordt gehouden. Misschien verlaagt Samsung de kloksnelheid van de chip om zo het energieverbruik terug te dringen en deze in een smartphone te kunnen plaatsen. Vooralsnog ziet het er echter naar uit dat Intel met zijn x86-architectuur een goede kans maakt om in de ultra low power-markt de concurrentie aan te gaan met de ARM-architectuur.Verbruik cpu-gedeelte Samsung Exynos 5 Dual

Door Marc Rademaker

Redacteur

04-01-2013 • 15:53

59

Reacties (59)

59
56
48
7
1
1
Wijzig sortering
Als ik naar het plaatje kijk verbruikt ie 3x zo veel en is ie 3x zo snel klaar, ik zie het probleem niet. Als ie warm wordt klok je gewoon terug.
Dat was mijn gedachte ook. Heeft de auteur hier het verkeerde (niet representatieve) plaatje gebruikt of is de conclusie fout? De Exynos 5 dual soc lijkt te pieken rond de 3W, de anderen rond de 1W. Hij is echter wel in 155s klaar, waar de anderen ~400, 500 en 600 seconden nodig hebben. De Tegra 3 bijvoorbeeld is dus 4x zo langzaam in deze specifieke benchmark en heeft een piekverbruik van ~3x zo weinig. Dan is de Exynos 5 toch zuiniger?
Inderdaad in deze benchmark is de A15 sneller klaar en verbruikt dus ook gewoon minder of evenveel als processor die er 3x zo lang over doen en minder gebruiken. Ik heb toch maar even het Anandtech stuk erbij gepakt en wat zie ik dan?

Dit is de tweede grafiek die bij de Kraken test hoort en de conclusie eronder:
http://images.anandtech.com/graphs/graph6536/52468.png
Despite the high peak power consumption of the Nexus 10 and its Cortex A15s, total energy usage is the lowest out of any of the contenders here since the Exynos 5250 is able to complete the benchmark so quickly. Intel is up next, followed by Qualcomm.
bron: http://www.anandtech.com/...s-x86-the-real-showdown/9
Net hoe je het bekijkt, voor je accu is die zuiniger, voor de koeling juist niet :)

En wat als een process vast loopt is je toestel 3x zo snel leeg dan dat dat op 1 van die andere zou gebeuren, en 3x zo veel warmte aan het afgeven...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:06]

Een proces dat vastloopt is altijd verkeerd voor iets. Ik kan het geen nadeel vinden van een CPU dat hij mijn toestel sneller zou leegtrekken als het toestel vastloopt. Dat vind ik een nadeel van het toestel/OS die het mogelijk maakt dat het toestel/een proces vastloopt.
@haarbal: Als ik naar het plaatje kijk verbruikt ie 3x zo veel en is ie 3x zo snel klaar, ik zie het probleem niet. Als ie warm wordt klok je gewoon terug.

Dat klopt ook wel. Echter zit de totale hoeveelheid energie ook aan de heel hoge kant.
Waar ik nl niemand over hoor is dat de Tegra 3 nog meer energie nodig heeft...... :X

Tegra 3 (0,75w X 600) = 450 Watt seconden
Exynos 5 (2,75w X 150) = 412 Watt seconden
APQ8060A (0,75w X 500) = 375 Watt seconden
Atom Z2760 (0,75w X 400) = 300 Watt seconden
(0,75w en 2,75w zijn een grove schatting van gemiddeld cpu verbruik uit de grafiek)

Ondergetekende is vooral benieuwd naar het verbruik van de Hondo Z-60:
http://seekingalpha.com/a...et-and-nobody-has-noticed

[Reactie gewijzigd door Anoniem: 64119 op 22 juli 2024 22:06]

Het verbruik is niet het probleem, de hoeveelheid warmte is een probleem.
De tegra heeft meer energie nodig maar verspreid dit over langere tijd, het gaat hier om die 2,75 Watt per seconde.
Watt = Joule/seconde, Watt per seconde = Joule/seconde^2 |:(
Die Watt seconden van de post ervoor is dan ook gewoon Joule.
Je kan ook gewoon de bron opzoeken waar dit allemaal in staat.
http://www.anandtech.com/...s-x86-the-real-showdown/9

In kraken doet de Exynos het goed omdat chrome verdraait snel is op deze benchmark. Bij alle andere is hij veruit het minst zuinig.
De Tegra3 is dan ook niet echt succesvol als Smartphone chip maar wordt voornamelijk gebruikt in tablets. Het lijkt dat dit ook voor de Exynos 5 zal gaan gelden.
De Hondo chip zit nog maar in 1 Fujitsu tablet, en de dikte en accuduur van dat ding beloven helaas niet heel veel goeds. Ik ben meer benieuwd of de Hondo opvolger Temash beter is, want Hondo is duidelijk niet een chip geworden die echt spectaculaire dingen doet.
Bij zuinigheid moet natuurlijk niet naar piekverbruik maar gemiddeld opgenomen verbruik worden gekeken. Ik denk dat de heren bij Anandtech dit best wel kunnen, en dat de exynos inderdaad minder zuinig is. Hij is wel een krachtpatser btw. Wat een verschillen zeg! Als die op een kleiner procédé lager wordt geklokt (wat bij een quad mogelijk is door meer threads) dan wordt dat echt een beest in een smartphone of tablet!
Inderdaad en dan net als Intels turbo als een app maar 1 core gebruikt die zwaar overclocken...

De browser gebruikt bijv maar 1 core, die wil je dus een Core op 2Ghz voorschotelen, maar mijn NZB downloader gebruikt netjes 4 cores, dan mogen ze weer op 1Ghz :)

Zolang de TDP maar onder het maximaal te koelen blijft...
Bij zuinigheid moet natuurlijk niet naar piekverbruik maar gemiddeld opgenomen verbruik worden gekeken.
Dat bedoel ik ook ;) Wat je hier ziet is piekverbruik en als je dat vergelijkt is hij juist niet de onzuinigste. Dan is dat plaatje dus niet representatief.
Ik denk dat de heren bij Anandtech dit best wel kunnen, en dat de exynos inderdaad minder zuinig is.
Daarvoor moet ik nu dus de bron gaan lezen, want het plaatje toont dat juist niet aan.
Hij is wel een krachtpatser btw. Wat een verschillen zeg! Als die op een kleiner procédé lager wordt geklokt (wat bij een quad mogelijk is door meer threads) dan wordt dat echt een beest in een smartphone of tablet!
Ja, het verschil is inderdaad enorm. Als de verschillen op een kleiner procedé kleiner worden (als in: voor de Exynos een acceptabel verbruik) wordt dit een dominante SOC :)
En dan daarbij, hoe vaak gebruik je in een telefoon de CPU op 100%?

Normaal gesproken zijn het toch maar even kleine bursts als even een web pagina gerenderd moet worden oid. De rest wordt allemaal afgehandeld door de GPU en de CPU op een veel lagere kloksnelheid.
Anoniem: 16328 4 januari 2013 15:58
Wel irritant dat ARM blijkbaar geen goed werk heeft afgeleverd met de A15 als Qualcomm het wel kan met een chip die daarop gebaseerd is. Samsung verliest op deze manier een belangrijke boot in smartphone land. Beide bedrijven wisten dit natuurlijk al maar nu weten wij het ook :).
Wel irritant dat ARM blijkbaar geen goed werk heeft afgeleverd met de A15
Dikke onzin. Dat Samsung op basis van ARM Cortex A15 een Tablet-SoC maakt die niet geschikt is voor smartfoons, zegt net zo weinig over de Cortex A15 als het feit dat de Mercedes-Motor van de E300 niet geschikt is voor een Smart zegt over de motorbouw-kwaliteiten van Mercedes.

Doh, tuurlijk is een tablet-SoC niet zuinig genoeg voor smartfoons. No shit Sherlock! Daarom zit er ook een Exynos 4412 (of wat dan ook) in smartfoons, en geen tablet SoC.

Afgezien van het feit dat ARM natuurlijk helemaal niets heeft te vertellen over het proces waarop Samsung haar SoC's bakt, en op welke frequentie dat ze die klokken.

ed: Misschien nuttig om op te merken dat TSMC's ARM Cortex A9 SoC's van ca. 1.5 jaar geleden technisch gezien al op 3gHz konden draaien - zonder problemen. Maw: De keuze van kloksnelheid is puur gebaseerd op de beschikbare accu / gewenste "power envelope", niet op wat transistor-technisch mogelijk is. Aangezien het opgenomen vermogen zich kwadratisch verhoudttot de frequentie, is dezelfde SoC op max. 1.4gHz al ca. 40% zuiniger.

[Reactie gewijzigd door kidde op 22 juli 2024 22:06]

Je bedoelt de Qualcomm S4 ? Dat is geen A15, en er ook niet op gebaseerd. De S4 heeft enkele (design)features die ook in de A15 zitten al toegepast op A9 cores.
Je hebt nog gelijk ook, dacht altijd dat ze vrijwel gelijk geven, maar op deze Wiki pagina, zie je toch dat er in ieder geval in de pipeline al verschillen zitten.
Ik kan hier echter niet uit opmaken of de instructieset iig wel gelijk is.
http://en.wikipedia.org/wiki/Krait_(CPU)
Krait = ARMv7 (net als Scorpion en Cortex A9), maar veel van de verbetering die in de Cortex A15 zitten zijn wel doorgevoerd.

Cortex A15 = ARMv7s (net als bijvoorbeel de Apple Swift)
Krait is volgensmij ook ARMv7s. Het enige verschil tussen ARMv7 en ARMv7s is de toevoeging van VPFv4, terwijl ARMv7 cores VPFv3 hebben. Scorpion, Cortex-A8 en A9 hebben VPFv3, terwijl Cortex-A7, A15, Swift en Krait VPFv4 hebben.
De Qualcomm Krait core is afgeleid van de A9 architectuur, niet de A15. Daarnaast is de A15 ook een heel stuk sneller dan de A9 of Krait core, zoals ook te zien is in het grafiek.
Als ik zo op het eerste oog bekijk... Is hij wel het snelste klaar... Dus wss ook het eerste leeg qua accu... Misschien een betere benchmark een film of meerdere laten spelen en kijken wie het langst volhoudt. Vind geen goeie benchmark.
Waarom is dat dan beter? Het was een test om aan te tonen dat het verbruik van de Exynos 5 Dual te hoog is voor een smartphone, een accuduur test heeft daar NIKS mee te maken!

Je past je koeling in je computer toch ook niet aan op het kijken van een film maar op het piekverbruik... Anders hadden we allemaal passieve koeling op onze i7 octacore :P

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:06]

@ zonglew00

Als je de bron had gevolgd, dan had je gezien dat er veel meer tests waren gedaan dan alleen de kraken benchmark. Daar wordt ook in aangeduid, wat het totaal verbruikte energie is geweest.
Hier valt opzicht nog mee hoe het gemiddelde verbruik is van de ARM A15, puur doordat hij snel klaar is met zijn taken.

Daarbij, is het een test om te meten hoe de energieverbruik van de SoC's zijn en niet de apparaten als geheel. Want de grootste energieslurpers bij tablets zijn de schermen. Maar hier is juist niet naar gekeken, want daar ging de test niet om.

[Reactie gewijzigd door Swordlord op 22 juli 2024 22:06]

Inderdaad, de integraal van deze plots (totale energie verbruikt voor de taak) zou beter zijn...
Het gaat er helemaal niet om dat hij wel heel snel is en dus door snel klaar te zijn met taken alsnog zuiniger kan zijn, het gaat er om dat hij op het moment dat hij zo hard aan het werken is 3 of 4 watt aan warmte moet afvoeren en dat gaat erg lastig worden in een telefoon.
Het is de vraag hoe ver ze dit kunnen beperken door bv de kloksnelheid te verlagen en hoeveel warmte ze goed af kunnen voeren in een krappe telefoonbehuizing.
Ik denk dat de eerste Cortex A15 socs voor smartphones in een big.LITTLE opstelling gebruikt worden samen met de nieuwe extreem zuinige Cortex A7. Voor de meeste taken is de Cortex A7 dan genoeg en als er echt power nodig is dan wordt de Cortex A15 aangeslingerd.
Anoniem: 16328 @Vandro4 januari 2013 16:01
Misschien 2x A7, 1xA15 maar wel een dikke GPU erin :).
Is dat niet zoiets als Apple met z'n A6 en A6x processor heeft gedaan? Deze is volgens mij ook gebaseerd op A7 maar heeft bv. wel enkele functies van de A15 overgenomen (zoals bv. Swift) icm een krachtige GPU? Ik weet echt helemaal niks van processor-architectuur af, maar iets in deze trant staat me wel bij :P
Nee die hebben geen extra zuinige cores naast hun normale cores zoals ChicaneBT zegt. A6X heeft gewoon 2 cores (wel zelf ontwikkeld maar dat is niet zo relevant in dit verhaal).

Meer iets als het BIG.little concept van ARM en wat Tegra 3 gebruikt. Oftewel een paar (of meer) krachtige cores met 1 of meerdere minder krachtige ernaast die het werk doen als er weinig te doen is...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:06]

Niet helemaal, Apple heeft bij de Swift de ARMv7s instructieset gebruikt die ook in de Cortex A15 en A7 gebruikt worden, maar heeft zelf de kern ontworpen. Apple heeft de core voor de iPhone 5 zo geoptimaliseerd dat hij ook in een smartphone gebruikt kan worden (oa. lagere clocksnelheid dan A15).

Er zit inderdaad een flink krachtige GPU met meerdere kernen van Imagination in, die ze niet zelf ontworpen hebben.
Dat dacht ik ook al :D
En als er dan echt power nodig is wordt je telefoon zo warm dat je hem niet meer kan vasthouden. big.LITTLE is leuk om het verbruik terug te dringen bij rustig gebruik maar is geen oplossing voor een te hoog piek vermogen. Als een spel "echt power" nodig heeft en dus de A15 core inschakelt, wil je niet dat de telefoon zegt dat je moet stoppen met spelen omdat de telefoon te warm is geworden. Ook met big.LITTLE zul je dus in staat moeten zijn de warmte van de krachtige core(s) af te voeren.
Dit was al veel langer bekend maar idd goed te zien dat onafhankelijke tests dit nu ook bevestigen. Het ligt ook in lijn met de prestaties, uit de eerdere benches was al duidelijk dat hij klok-voor-klok zo'n 50% sneller is dan Bonnell en Bobcat, maar die uitstekende performance komt logischerwijs ook met gevolgen voor het verbruik.

Cortex A15 gaat een heel interessante architectuur worden voor tablets en netbooks, maar is gewoon minder geschikt voor telefoons. Is helemaal geen schande, en ARM heeft voor die markt de Cortex A7 arch ontwikkeld.
Cortex A15 gaat een heel interessante architectuur worden voor tablets en netbooks, maar is gewoon minder geschikt voor telefoons. Is helemaal geen schande, en ARM heeft voor die markt de Cortex A7 arch ontwikkeld.
Nou nee, de Cortex A7 is een erg zuinige chip maar is minder snel dan een Cortex A9. Gezien in de high-end segment prestaties belangrijker zijn dan de zuinigheid van een chip (zit natuurlijk wel een grens) zal dit een erg rare keuze zijn. De A7 is ook nooit bedoelt als opvolger van de A9.

Ik zal eerder zien dat ze quad core op de markt brengen met 2 A7 en 2 A15 cores. Hierbij pak je de energieverbruik voor stand-by en klein gebruik flink aan en kan je voor de zwaardere taken de A15 gebruiken. Ik weet wel zeker dat op deze manier heel efficiënt stroom kan worden bespaart.

[Reactie gewijzigd door V-rg op 22 juli 2024 22:06]

Dat schiet niet op. Als 2 A15 cores al op 4W TDP zitten, dan is dat een te onzuinige chip voor een telefoon. Uiteindelijk moet je voor een telefoonchip max 2W hebben, anders krijg je van die ellende als bij de Nexus 4 die constant throttled. Tegra 3 is ook niet voor niets een enorme hit in tablets geworden, maar een flop in telefoons.

Ik had trouwens begrepen dat Cortex A7 wel degelijk een vergelijkbare performance levert als Cortex A9, mede omdat hij iets hoger geklokt kan worden (voor hetzelfde verbruik).

[Reactie gewijzigd door Dreamvoid op 22 juli 2024 22:06]

De titel is wel misleidend. Dit niet wat Anandtech heeft gezegd. Ze geven wel aan dat hij in zijn huidige vorm te veel verbruikt voor een telefoon en dat ze benieuwd zijn wat voor een varrianten fabrikanten straks in telefoons gaan stoppen. Waarschijnlijk hebben die veel lagere clocksnelheden en voltages waardoor het verbruik aanzienlijk lager zal zijn.
Nu ben ik toch wel heel benieuwd naar het energiegebruik van A4/5(X) SoC's. In principe kunnen ze dezelfde wirejob gebruiken om het gebruik te meten lijkt me. Hopen op een update :)

Waarom? Om dat het toch wel interessant is om te weten hoe fabrikanten en chipmakers hun SoCs bouwen en balanceren. We weten dat ze allemaal een ARM licentie nemen, en dan een basis ARM core ontwerp gebruiken samen met hun eigen expertise. Dan krijg je een stukje algemeen ontwerp en een stukje gespecialiseerd ontwerp om aan bepaalde verwachtingen of eisen te voldoen. Stel dat daar laag energieverbruik en hoge performance bij hoort, dan is het toch wel leuk om te zien hoe de ontwerpen in verhouding werken.
Anoniem: 474132 4 januari 2013 16:11
Misschien kan Samsung een licentie nemen op de Apple A6 Swift core? :)
Samsung produceert de chips al voor Apple dus dat is lekker handig hoeven ze alleen de productie op te schroeven :). Maar ik zie dat niet snel gebeuren en daarmee zet je jezelf als SoC bouwer ook wel voor schut door bij een ander bedrijf SoC's af te nemen :P.
Maar ik zie dat niet snel gebeuren en daarmee zet je jezelf als SoC bouwer ook wel voor schut door bij een ander bedrijf SoC's af te nemen :P.
Nee dan hoeven ze alleen een licentie af te nemen van Apple niet de complete SoC meteen net als ze nu een licentie van ARM afnemen. Niks om zich voor te schamen (enkel dat ze dan bij Apple aankloppen ipv andersom)...

Daarbij gebruikt Samsung wel vaker SoCs van andere hoor, Tegra 2 in tablets bijv. En Qualcoms in een enkel telefoon...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:06]

ja,

misschien kan samsung een licentie nemen op de SoC die ze zelf maken.

8)7
Dat jij een product voor iemand anders produceert op specificaties die aangeleverd worden betekent niet dat jij die zelf kostenloos ook mag gebruiken in je eigen producten.
Dan kunnen ze net zo goed hun Exynos 4 Quad hergebruiken...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:06]

Innovatief inderdaad. Apple heeft zelf een mooi en snel/zuinig ontwerp gemaakt.
Samsung heeft het ontwerp aangeleverd zodat Samsung deze ( nu nog wel) kan produceren. Het zou wel gezichtsverlies zijn voor Samsung als ze bij Apple een licentie moesten aanvragen.
Dat zou omgekeerde wereld zijn. Apple haalt zijn chips niet meer bij Samsung vandaan, maar bij tmsc . En vervolgens moeten ze ook nog licentiekosten betalen aan Apple.
Dat zou de hele markt op zijn kop zetten en gaat dus niet gebeuren. Samsung zal zelf eens moeten gaan innoveren en een goed ontwerp moeten gaan maken.
dat wordt dan behoorlijk veel verlagen aangezien de Samsung "S4" een 4core wordt ipv een dual

edit@gewoonwatspulle:
nee ik bedoel t.o.v. de bovenstaande dual core die al teveel verstookt

[Reactie gewijzigd door R1 op 22 juli 2024 22:06]

Nou ik denk dat dat hiermee dus wel uitgesloten kan worden, tuurlijk zitten er voor die tijd vast nog wat verbeteringen in, maar als de dualcore al te veel verbruikt...

Wel jammer dat ze de Exynos 4 Quad (4412) niet mee hebben getest...

@tweakers: hoe kan ik nu reageren op iemand waar ik de reactie nog helemaal niet van kon zien toen ik het aan het typen was... Rare bug!

@GewoonWatSpulle:
Zag het zelf inderdaad niet goed :P Blijf het een vervelende weergave vinden...

[Reactie gewijzigd door watercoolertje op 22 juli 2024 22:06]

Dit is denk bedacht door een techneut.. de visualisatie klopt van geen kant waar je "op" (onder) reageert. Jouw reactie is net als mijne een op het bericht van R1.
Ja, ik vind het ook lastig om te zien welke reactie onder welke reactie hoort...

Ik had al gezien dat de Exynos 5 relatief slecht scoort, misschien is het een meerwaarde dat de cpu wel veel aankan, ook al is de performance per watt slecht. Als de idle/low-level prestaties ok zijn hoeft dat geen ramp te betekenen: als bij performance de performance/watt slecht is maar een telefoon 80% van de tijd staat te idlen en daar juist een sterke performance/watt neerzet, hou je onderaan de streep meer energie over bij praktijkverbruik.

Plus: ik denk dat het gros wel wat aan accucapaciteit wil inleveren op het moment dat de telefoon behoorlijk sterk kan presteren. Daarnaast zou je het totaalplaatje moeten nemen: stel dat de processor slecht scoort, maar dit een marginaal verbruik is ten opzichte van het scherm/antenne's, dan is het niet zo van belang. MAAR: aangezien Anandtech dit post vermoed ik dat dit wel van belang is: Anandtech staat bij mij juist positief bekend door de puristische realistische benadering en relevante reviews.

[Reactie gewijzigd door Nas T op 22 juli 2024 22:06]

Cortex A15 was toch ook helemaal niet bedoeld als zuinige opvolger van de A9 chips? Is meer bedoeld als zuinige server chip, maar kan uiteraard in tablets worden gezet.

Hetzelfde als de S4pro (krait quadcore), die zie je ook nog niet in toestellen van 4.5" of kleiner (zover ik weet, prove me wrong).

Dat maakt juist het dualcore design van de Krait zo leuk. Pak Cortex A9, voeg een paar leuke features van A15 toe, gebruik een klein productie-process en je hebt een leuke performance boost maar vooral een veel zuiniger ding.

Apple heeft (Zover ik weet) hetzelfde gedaan met de chip in de iphone5.

Ik lees wel vaker dat mensen zeggen 'wacht maar tot de echte A15 chips er zijn...', maar ze vergeten dat de A15 wat ARM betreft helemaal niet bedoeld is voor smartphones.
Volgens mij heb je gelijk, de A15 was niet echt gericht op zuinigheid. De A5x serie is dat wel. ARM beloofd veel lager energie verbruik en die size (40% kleiner) bij gelijke prestarties tov A9 voor de A53 en 30% betere prestaties dan A15 bij gelijk verbruik voor de A57 als ik het goed begrepen heb ;-)

Zie http://www.anandtech.com/...rst-64bit-armv8-cpu-cores
Dat maakt juist het dualcore design van de Krait zo leuk. Pak Cortex A9, voeg een paar leuke features van A15 toe, gebruik een klein productie-process en je hebt een leuke performance boost maar vooral een veel zuiniger ding.
Volgens mij klopt dat niet helemaal, Krait is gewoon een volledig eigen chip gebaseerd op A15

Apple heeft inderdaad het zelfde gedaan met hun A5
http://en.wikipedia.org/wiki/Krait_(CPU)
Ik lees wel vaker dat mensen zeggen 'wacht maar tot de echte A15 chips er zijn...', maar ze vergeten dat de A15 wat ARM betreft helemaal niet bedoeld is voor smartphones.
Volgens mij klopt dat ook niet helemaal, lees maar op
http://www.arm.com/produc...s/cortex-a/cortex-a15.php

er staat daar dat het ook voor ''Advanced Smartphones'' toegepast kan worden
Advanced Smartphones.. Dingen van 5" en groter ja, ik noem dat tablets :P.

En recht van de wikipedia pagina die je linked:

"...is named Krait and has many similarities with the ARM Cortex-A15 CPU".

Similarities, maar eigen design wat nog best sterk lijkt op de vorige 'generatie'.
Een paar 'simpele' dingen als out-of-order instructieverwerking maakt een CPU al zo veel sneller mhz-voor-mhz

[Reactie gewijzigd door dipje2 op 22 juli 2024 22:06]

Klik dan ook niet op "Reageer" in iemands reactie, dan reageer je op die reactie. Gebruik voor algemene zooi gewoon het formulier onderaan de pagina.

Zo lastig is het toch niet? Toch..??
De huidige S3* bevat reeds een quadcore namelijk een Exynos 4 Quad.

*aanname: dat je de Galaxy S4 bedoelde met "S4"

Op dit item kan niet meer gereageerd worden.