Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 55, views: 22.002 •

ST-Ericsson heeft op elektronicabeurs CES een nieuwe dualcore-processor voor mobieltjes gepresenteerd. De L8580 heeft twee op een Cortex A9-core gebaseerde processorkernen en een PowerVR SGX544-gpu van Imagination. De processorkernen kunnen draaien op 2,5GHz.

ST-Ericsson noemt zijn nieuwe soc eQuad. De L8580 volgt onder meer de U8500 op, die ook te vinden is in diverse telefoons van Sony en Samsung, waaronder de Xperia P, Xperia Sola, Galaxy S Advance, Galaxy Ace 2 en Galaxy S III Mini. De soc heeft net als de U8500 processorkernen die zijn gebaseerd op een Cortex A9-core, in plaats van de nieuwere Cortex A15-core in de Nvidia Tegra 4 en Samsung Exynos 5 Octa.

De gpu in de soc is de Imagination PowerVRSGX544, dezelfde als in de nieuwste iPads. Het lijkt er echter op dat de soc een singlecore-gpu gebruikt, in plaats van de multicore-versies in iPads. De processorkernen kunnen geklokt worden op 2,5GHz, maar kunnen ook lager geklokt worden om op 0,6V te werken en zo de accuduur van telefoons te verlengen. Op de die is ook plek voor een modem die signalen van 2g-, 3g- en 4g-netwerken kan verwerken.

De nieuwe chip van ST-Ericsson is nog niet gebruikt in een aangekondigde telefoon. Het is onduidelijk of er telefoons komen van bekende fabrikanten met deze processor erin; de U8500 werd gebruikt als goedkope dualcore-processor. Als dit de goedkoopste dualcore-soc op de markt blijkt te zijn, is er een kans dat ook deze processor zijn weg vindt naar midrange-toestellen voor de Europese markt.

Update, maandag: Zoals robb7 en Ralph Smeets terecht opmerken, is de L8580 geen quadcore, maar een dualcore: de twee fysieke kernen kunnen opereren in twee verschillende modi, waardoor het volgens ST-Ericsson 'effectief een quadcore' is; vandaar de marketingnaam eQuad.

L8580 van ST-Ericsson

Reacties (55)

Dat is geen misselijke processor, al had ik het beter gevonden als die via het Krait-principe zou werken: asynchroom met variabele kloksnelheden en zichzelf terugclockt in idle om de accu te sparen. Door de hoge clocksnelheid zal deze processor makkelijk voorbij de Tegra 3 en Exynos van de S3 kunnen komen. De gpu is vrij krachtig, al zou een dual-core gpu denk ik net wat krachtiger En toekomstbestendiger zijn geweest. Wat wel weer jammer is, is dat Ericson achterloopt door A9 ipv A15 ontwerp. Mocht het echter zo zijn dat de A15 buitensporig veel gebruikt en de A7 qua performance het niet haalt, dan is deze processor de gulden middenweg. Ik zou het zeker als de sterkste midden-klasser qua processors noemen in een mobiel - mits geimplementeerd natuurlijk.

Edit: spellingsfouten en zinnen verbeterd

[Reactie gewijzigd door South_Styler op 11 januari 2013 11:42]

Qualcomm verkoopt geen licensies op Krait, dus daar heeft ST-Ericsson niet zoveel aan, die moeten het doen met wat ze van ARM kunnen krijgen.

De grote vraag is, wat is er met hun NovaThor A9600 wonderchip gebeurd? Dual core Cortex A15, Series-6 PowerVR gpu, 28 nm...hoe langer ze ermee wachten, hoe lastiger het wordt tov nVidia, Samsung, Intel, Qualcomm...

[Reactie gewijzigd door Dreamvoid op 11 januari 2013 11:15]

Die heeft men verkocht aan Apple en zit in de iphone 5😉
Proof graag. Het is duidelijk dat het principe hetzelfde is (simpelweg, cortex a9 met bepaaalde foefjes uit a15) als Krait, maar zover ik weet is het nergens gemeld of bewezen dat het daadwerkelijk een licentie van Krait is.

Als er echt bewijs is (dus geen gokjes ) graag een linkje

Oh, en een edit:
Vergeet niet dat terugklokken van een CPU in principe geen stroom bespaart.
Het is het lagere voltage wat dat doet (en lager voltage kan weer door lagere clocks).
Maar op 192mhz draaien ten opzichte van 600mhz heeft weinig nut als het voltage hetzelfde is bijvoorbeeld (heb dit geprobeerd uit te leggen aan ROM bakkers op xda, maar er zijn er nog steeds zat die er heilig in geloven dat de MHz zo laag mogelijk moet in idle stand om stroom te besparen ).

[Reactie gewijzigd door dipje2 op 11 januari 2013 15:23]

"Vergeet niet dat terugklokken van een CPU in principe geen stroom bespaart."
Dat wist ik ook niet.

Daar signaal veranderingen stroom kosten en signaalveranderingen per klok tik gebeuren bespaar je in het ideale geval de helft stroom als je de helft terugklokt. Het ideale geval is als er geen lekstromen zijn.

Zijn de lekstromen zo hoog dat terugklokken bij gelijke spanning niets uitmaakt?
clocksnelheid maakt zeker uit voor verbruik!

Kijk maar naar de Pentium 4... Zelfde spanning voor de hele reeks, wel een ander verbruik (en TDP) afhankelijk van klocksnelheid.

Ja natuurlijk kan je niet zo hoog klocken als de spanning te laag is (timing van transitoren is afhankelijk van spanning, hoe langer de spanning, hoe trager).

Beide; en de spanning en de klocksnelheid maakt uit voor verbruik.

Klocknetten vreten al redelijk wat, en het verbruik is lineair met klocksnelheid. Ten slote moet je meer transities doen.

Spanning tegenover verbruik is wel niet lineair.

Meestal heeft spelen met spanningen meer impact dan spelen met klocksnelheden. (quadratisch i.p.v. lineair).
Oh, en een edit:
Vergeet niet dat terugklokken van een CPU in principe geen stroom bespaart.
Het is het lagere voltage wat dat doet (en lager voltage kan weer door lagere clocks).
Maar op 192mhz draaien ten opzichte van 600mhz heeft weinig nut als het voltage hetzelfde is bijvoorbeeld (heb dit geprobeerd uit te leggen aan ROM bakkers op xda, maar er zijn er nog steeds zat die er heilig in geloven dat de MHz zo laag mogelijk moet in idle stand om stroom te besparen ).
Daar klopt dan ook niks van dus goed dat ze je niet geloven!

Elke Mhz is een stroompje door je CPU heen, minder Mhz = minder vaak stroompjes, dus wel degelijk zuiniger! (edit: elke Mhz is natuurlijk 1000 stroompjes immers 1mhz =1000hz)

Verbruik is best simpel te weten als je het verbruik weet bij bepaalde Mhz/voltage combo :)

1000Mhz cpu op 1volt die bijv 5watt uur verbruikt, dan kan je gewoon 1000x1 doen en dat is dus 1000 dat getal staat dus voor 5 watt...

Nu gaan we die CPU mooi op 500Mhz instellen nog steeds met 1volt, nu is het dus 500x1 = 500 = de helft van 1000 = 50% verbruik = 2.5Watt/h!

Nu gaan we het voltage aanpassen, we kunnen daar mooi 0.8v gebruiken want bij minder mhz kunnen we het voltage mooi omlaag doen. Dan krijg je dus 500x0.8 = 400 wat dus ten opzichte van 1000 een verbruik voorstelt van 40% van die 5watt/h wat dus neerkomt op 2Watt/h...

Nu gaan we even flink overklokken helaas moet je vaak tegen de max je voltage FLINK verhogen, dus dat doen we nu ook, 1500Mhz red ie net aan op 1.2v, 1500*1.2 = 1800 = dus 80% hoger dan 1000, en dus 80% hoger dan 5Watt = 9watt verbruik.

Het is dus wel zo dat als je een taak uitvoert op 200Mhz en 600Mhz dat het niet perse hoeft te schelen in verbruik bij hetzelfde gelijk voltage, immers duurt de taak wel 3x zo lang met 3x zo laag verbruik = netto even veel verbruikt...

Het gaat natuurlijk niet 100% zo op, immers zit er veel meer in een CPU dan alleen een rekenkern (en dat is waar de huidige berekening gewoon prima op werkt), de rest zoals het cache enzo heb ik geen idee van, en kan het nog iets wat beinvloeden...

@bjp verhoging in kloksnelheid is wel linear, verhoging in spanning ook, maar door die samen te verhogen wordt dat dus quadratisch:

2Ghz @ 2v = 2000*2 = 4000 = 100% = 50Watt/h
4Ghz @ 2v = 4000*2 = 8000 =200% = 100Watt/h
2Ghz @ 4v = 2000*4 = 8000 = 200% = 100Watt/h
4Ghz @ 4v = 4000*4 = 16000 = 400% = 200Watt/h

Zoals je kan zien schaalt zowel regel 2 (kloksnelheid) als 3 (voltage) netjes linear, en combineer je die dan stijgt het kwadratisch met maar liefst 400% :) Je krijgt er echter maar 2x de performance van 2Ghz door, maar 4x het verbruik...

PS ik raad niemand aan 2v te gebruiken, was voor mij gewoon lekker makkelijk rekenen :D!

[Reactie gewijzigd door watercoolertje op 12 januari 2013 12:10]

1 opmerking,
Volgens mij heeft het verhogen van de spanning alleen al een kwadratische invloed op het opgenomen vermogen. Dit aangezien stroom lineair afhankelijk is van de aangebrachte spanning en vermogen het product is van stroom en spanning.

Dus voor het verdubbelen van de performance gebruik je eerder 8 x zoveel vermogen. Echter om een bepaalde taak af te werken wordt er 4 x zoveel energie verbruikt. (De taak is immers in de helft van de tijd geklaard)
Bij een verhoging in spanning stijgt het verbruik niet lineair maar sterker. Bij ohmse weerstanden stijgt het verbruik kwadratisch.

Stroom is spanning gedeeld door weerstand (voor ohmse weerstanden). Bij een owmse weerstand levert een 2 maal hogere spanning ook een 2 maal hogere stroom op.
1V @1ohm =1A
2V @1ohm = 2A

Vermogen is spanning maal stroom. Bij een verdubbeling van de spanning wordt het opgenomen vermogen dus 4 maal zo groot.
1V x 1A = 1Watt
2V x 2A = 4 watt

Uit testen met een AMD XP M die ik heb gedaan (hoe lang duurt het om 1 liter water @stock en verhoogd voltage op te warmen bij maximale belasting) blijkt dat een CPU er redelijk bij in de buurt zit. Net een iets minder sterke toename als een perfect ohmse weerstand. Hogerclocken is uitermate inefficient. Een 50% hogere clock deed het verbruik steigen met een factor 3 dus aan het einde van de taak is er veel meer energie verbruikt.
Eh ... terugklokken bespaart wel degelijk "stroom".

In principe zijn er 2 mechanismes die het verbruik bepalen.
De lek stroom, en het schakelen van transistoren.

Lek is gerelateerd aan de technologie (en niet afhankelijk van de frequentie).
Maar het schakelen is zuiniger op lagere frequenties (en dan kan ook vaak de spanning wat omlaag wat het energieverbruik ook omlaag helpt).
Die heeft men verkocht aan Apple en zit in de iphone 5😉
Eh? Volgens mij klopt er iets niet in je verhaal. De A6 en A6X zijn door Apple inhouse ontwikkeld. Tot en met de A5X ontwikkelden ze het ding samen met Samsung.
Ik geloof dat dit een grap was :)
De processor kan wel teruggeclockt werden (net als zo'n beetje elke moderne processor). Die paar procent die je bij asynchrone clocks wint, die zou je wel weer eens kunnen verliezen aan de extra logic die je nodig hebt om dat te implementeren. Uiteindelijk hangt het sterk van de applicatie af hoe veel je daarvan zou kunnen profiteren natuurlijk.
De praktijk laat in elk geval zien dat de chips met Krait cores bijzonder zuinig zijn tov de concurrentie. Of dat nou door de asynchrone kloks komt, dat is moeilijk te zeggen, maar wat Qualcomm nou precies gedaan heeft, het werkt.
Qualcomm geeft geen licenties op het krait ontwerp en de boel zal wel gepatenteerd zijn.
Mooie ontwikkeling, maar krijg bij dit soort berichten altijd weer een flashback naar de desktop processoren, waar alles om Ghz-en draaide jaren terug, tegenwoordig is dat gelukkig minder zo op de desktop markt en is alles een beetje rond de 3Ghz. Nu zal dit vanzelf wel weer overwaaien naar de mobiele sectoren. Zal 3Ghz ook een beetje hier het gemiddelde worden?
ik ben best wel verbaasd dat ze cortex a9 kernen op 2,5 ghz krijgen, naar mijn idee gaat gepaard met zon kloksnelheid op 4 van dat soort kernen toch ook een vrij hoge temperatuur? Ik heb zelf de One X, met de welbekende tegra 3 en dus ook het bekende probleem dat deze vrij warm kan worden bij volledige belasting. Ik merk zelf een behoorlijke hotspot als ik hem zwaar aan het belasten ben en dat zijn dan nog maar 4 a9 kernen op 1,5 ghz.
Ik heb zelf ook de One X dus ik weet waar je het over hebt. Maar bedenk je wel dat de Tegra 3 op 40 nm is gebakken, terwijl deze Ericsson waarschijnlijk op 32 nm is gebakken, anders zou - zoals jij zegt - de tempratuur toch behoorlijk kunnen oplopen. Daarnaast moet je je bedenken dat de gpu van de Tegra 3 meer kernen bevat dan deze processor (die waarschijnlijk wel net zo krachtig is). Al met al draait deze processor qua cpu kracht rondjes om onze Tegra 3, die zo wie zo niet zo'n heel sterke CPU heeft :)

Edit: watercooler geeft al het antwoord: productieprocede van 28 nm, dan kan het dus wel. Het is zuiniger en kan een hogere snelheid aan.

[Reactie gewijzigd door South_Styler op 11 januari 2013 11:47]

waar alles om Ghz-en draaide jaren terug, tegenwoordig is dat gelukkig minder zo op de desktop markt en is alles een beetje rond de 3Ghz.
huh... helaas draait het niet meer om de Ghz-en. Als we terug zouden gaan naar de versnellingen in de jaren 90 dan zouden we over anderhalf jaar 6 Ghz hebben en over 3 jaar 12 Ghz (dat klinkt mij iig goed in de oren). Gelukkig hebben we het aantal cores waar aan geschroefd kan worden, maar ook daar blijft het een beetje hangen rond de quad-core met uitspatters naar de octacore. Het hele smart-phone gebeuren heeft ervoor gezorgd dat de focus komt te liggen op batterij en warmte productie, kwa 'rauwe' snelheid ligt het daar echter een x (x>5) aantal jaren terug.
Dit zijn wel erg hoge clockspeeds voor een A9. Ik ben benieuwd hoe ze dit voor elkaar gekregen hebben.

Wel jammer als die GPU maar een single core zou zijn. Dual was beter geweest om een beetje mee te kunnen komen,
Lijkt mij dat hiermee de verhouding inderdaad een beetje krom komt te liggen.
De moderne mobiele OS heeft toch allerlei taken die de GPU doet/kan doen?
Om dat weer over de CPU te laten gaan lijkt me minder efficient.

Heb je dus heel veel CPU power maar een GPU die veel zaken tegen zou houden.
Als we deze zouden gaan zien lijkt het mij inderdaad een middenmoter met CPU uitschieters.
En zoals eerder genoemd lijkt het mij een uitdaging om dit op normale temps te houden.

Ben benieuwd hoe de reallife verhoudingen komen te liggen tussen A9 en A15.
De moderne mobiele OS heeft toch allerlei taken die de GPU doet/kan doen?
Dat valt nog tegen. 3D games, wetenschappelijke simulaties/HPC en video encoding/decoding, daar houdt het wel een beetje mee op. Een beest van een gpu helpt niets om je browser sneller te maken.

[Reactie gewijzigd door Dreamvoid op 11 januari 2013 11:44]

@dreamvoid: Een beest van een gpu helpt niets om je browser sneller te maken.

Dat klopt uiteraard niet. Een goede gpu helpt wel degelijk om een browser sneller te maken. Zeker met al het grafische geweld en reclames van tegenwoordig. Al helemaal wanneer je met veel tabs of browser vensters werkt.......

Zoals Double-X-L het bedoeld dat de gpu algemeen (niet grafisch) werk voor zijn rekening gaat nemen staat wel op de planning maar komt pas volgend jaar.
en video encoding/decoding,
Zou dom zijn, volgens blokdiagram van de U8500 heeft deze een eigen hardwarematig video-blok, losstaand van de GPU.

Wat de video-chip denk ik wel doet, is weergeven van de interface.
Dit zijn wel erg hoge clockspeeds voor een A9. Ik ben benieuwd hoe ze dit voor elkaar gekregen hebben.
Inderdaad maar wordt wel met het 28nm FD-SOI ( http://en.wikipedia.org/wiki/SOI_MOSFET ) produce gemaakt waar bijv de Exynos 4 Quad op 32nm HKMG ( http://en.wikipedia.org/wiki/High-k_dielectric ) is en prima op 1.8Ghz te gebruiken is (officieel max 1.6Ghz).

Dus een stuk kleinere chip heeft minder energie per schakeling nodig of dus meer schakelingen (=Mhz) leveren met vergelijkbare energie als andere met minder schakelingen (=Mhz)..

http://www.stericsson.com/press_releases/L8580_eQuad.jsp

[Reactie gewijzigd door watercoolertje op 11 januari 2013 11:20]

Om mee te komen? Het is nu niet echt dat je er Autocad of andere zware grafische applicaties op draait. Overigens met zo'n CPU kan de GPU vast ook wel beter presteren dan met een single of dual core 1.5GHz CPU.
Singlecore misschien omdat het toch mid-end is en een zware GPU een grote wissel zou kunnen trekken op de accu.
Waarom in de titel 'mobieltjes'?

Smartphones vind ik een betere woordkeuze, het valt mij de laatste tijd wel vaker op..
Misschien omdat smartphone destijds nodig was omdat er ook heel veel "dumb-phones" (mobieltjes) waren. Vandaag de dag zie ik in elk geval héél soms nog iemand lopen met een dumb-phone, maar het gros heeft nu allemaal een smartphone, vandaar dat de term een beetje aan het verdwijnen is voor mijn gevoel.

Ontopic: Benieuwd hoe snel je accu leeg getrokken is met deze cpu :P Dit is wel een leuke ontwikkeling maar net zoals iTec zegt, het lijkt nu vooral een Ghz race en later gaan ze hopelijk meer aandacht besteden aan power-management.

Zit nog steeds te wachten op wat ze met Ubunto doen en wat motorola deed met hun Razr dock - je telefoon omtoveren in een... console bijvoorbeeld, of een desktop systeem. Lijkt mij ideaal voor op de werkvloer en studenten. zou ook een hoop geld moeten besparen en stroom.
Maar dan nog deze chip kan net zo goed in een tablet belanden dan maakt het niet eens uit of er mobieltje of smartphone gezegd is beide is fout :)
Wat Narathan zegt: enkele jaren geleden waren er smartphones en 'featurephones' (zoals Cybershot-telefoons of de Ultra-serie van Samsung); toen was het onderscheid nodig. Tegenwoordig is alles in de markt vanaf ongeveer 70 of 80 euro losse aanschafprijs een smartphone; als het een dumbphone betreft, zetten we dat er apart bij.

Vandaar dat we mobieltjes en smartphones als synoniem zijn gaan gebruiken de afgelopen maanden. Dat is zelfs aan de achterkant ingevoerd: de tag 'Smartphone' hebben we bij de intro van Tweakers 7 vervangen door 'Mobiele telefoons' :)
Gebruik dan mobiele hardware in dit geval, tablet en smartphone is mobiel, maar zijn geen mobieltjes.
Ik vind het zo'n term van vroegah ^^
ST-Ericsson spreekt zelf van "mobile platform" dus wat dat betreft gaat het wel wat verder dan alleen mobieltjes of smartphones. Ik denk dat ook tablets onder een mobiel platform vallen. Een mobiele processor dus, en niet alleen voor mobieltjes.
Beste quad, lekker interessant hoe het heet. Ik noem het telefoon, mijn pa noemt het pocket phone, en mijn buurman noemt het ' ut slimme kassie '. ieder zijn ding
ST-E maakt prachtige goedkope mobiele cpu's. Als je deze onderclockt naar 1.0 GHZ heb je een zuinige snelle telefoon.
Ik heb nu een poosje ervaring met de Novathors en deze reageren lekker snel mits de drivers goed zijn! Daar heeft Sony nogal vaak moeite mee jammer genoeg..

Straks hebben we voor 275,- een prachtige Sony telefoon met Quadcore Cpu :)

Gamen op mijn mobiel doe ik sporadisch en zelfs dan is deze GPU voldoende...Ik kijk niet alleen naar cijfers..

[Reactie gewijzigd door guidonno op 11 januari 2013 11:15]

vind t maar vreemd dat ze nog altijd de achterhaald kloksnelheid specificaties blijven gebruiken. Het gaat toch om de instructies per clockcycle?

Het wordt hoogtijd dat fabrikanten deze informatie ook vrijgeven. Dat had allang bij hun doorgedrongen moeten zijn.
Dat zou het ook gelijk een stuk makkelijker maken om deze quad-soc te vergelijken met degene die op de A15 gebaseerd zijn maar een lagere klok hebben.
Ik ben namelijk wel benieuwd hoe deze zich tot elkaar verhouden, ook qua verbruik.
vind t maar vreemd dat ze nog altijd de achterhaald kloksnelheid specificaties blijven gebruiken. Het gaat toch om de instructies per clockcycle?

Het wordt hoogtijd dat fabrikanten deze informatie ook vrijgeven. Dat had allang bij hun doorgedrongen moeten zijn.
Het draait net zo goed (of net zo min) om kloksnelheid alsom instructies per clockcycle....

1Ghz met 2.5 instructies per clockcycle is net zo snel als 2.5Ghz met 1 instructie per clockcycle (oke er komt nog wel veel meer bij kijken dan enkel dit, maar simpel gezegd zijn ze beide net zo belangrijk)...

Daarbij de meeste consumenten snappen er helemaal niks van dus die cijfers zijn leuk voor ons maar marketingtechnisch is Mhz wel degelijk veel belangrijker (ook daar snappen consumenten niks van maar die denken iig nog dat hoger altijd beter is)!

[Reactie gewijzigd door watercoolertje op 11 januari 2013 11:39]

instructies per clock cycle is ook alleen maar interessant als je ook cijfers hebt hoe efficient cpu de instructiepipeline vol kan houden, hoe goed hij werkt met branched code, etc. Dus uiteindelijk kom je weer uit op benchmarks: real-life scenario's uitvoeren en kijken hoe de chip daarin performt.

[Reactie gewijzigd door Dreamvoid op 11 januari 2013 12:16]

Zo kunnen we wel even doorgaan. De instructieset is ook heel belangrijk!
Zoals al gezegd zijn instructies per clockcycle net zo belangrijk als de kloksnelheid.
Als ik 10 instructies per clock cycle kan doen, maar ik kan hem maar op 10 MHz draaien, dan ga ik toch liever voor een processor die er 1 per seconde doet en op 1,0 GHZ draait.
Nee hoor, het gaat niet om instructies per klokcycle. Dat houdt namelijk geen rekening met verschil tussen architecturen. Instructies per seconde is al iets beter, maar nog steeds niet nauwkeurig.

Indien je echter processoren met dezelfde architectuur vergelijkt, kan je net zo goed wel de klok als vergelijking nemen.
Bron : http://en.m.wikipedia.org/wiki/PowerVR

SGX535 Nov 2007 65 nm 2/1 14 500 64 9.0c 2.1 2.0 1.6
SGX540 Nov 2007 65 nm 4/2 20 1000 64 N/A N/A 2.0 3.2
SGX545 Jan 2010 12.5@65 nm 4/2 40 1000 64 10.1 3.2 2.0 7.2
Series 5XT

Model Date Cores Die Size (mm2)[1] Config core[3] Fillrate (@ 200 MHz) Bus width (bit) API (version) GFLOPS(@ 200 MHz,per core)
MTriangles/s[1] MPixel/s[1] DirectX OpenGL OpenCL
SGX543 Jan 2009 1-16 5.4@40 nm 4/2 35 1000 64 N/A N/A 1.0 6.4
SGX544 Jun 2010 1-16 5.4@40 nm 4/2 35 1000 64 9.0L3 2.1 1.1 6.4
SGX554 Dec 2010 1-16 8.7@40 nm 8/2 48 1000 64 9.0L3 2.1

De 535 zat in de iPhone 3gs en 4 en ipad 1
De 540 zat in de Samsung galaxy s1
De 543MP2 (2 cores) zat in de iPhone 4s en ipad 2
De 543 mp3 (3 cores) in de iPhone 5
De 543MP4 (4 cores) zit in de ipad 3
De 554MP4 " zit in de ipad 4
Nu doen ze dus een SGX 544 single core in. Ze lopen een beetje achter dus qua grafische kracht.

De CPU lijkt me echt overkill als ze dit als grafische chip gebruiken. Alleen jammer dat waarschijnlijk elke quad core A15 chip deze al wel zal verslaan. Heel jammer dat ze niet in ieder geval twee grafische cores erin d doen.

[Reactie gewijzigd door oooskar op 11 januari 2013 12:02]

Ik vraag me af of dit niet een beetje overkill is?

Je moet op je smartphone, volgens mij toch, geen superkrachtige rekenprocessen uitvoeren?
Overkill bestaat niet :)
Hangt ervanaf hoe snel je het wil hebben.
Wij willen altijd een snelle brouwser en snel je whatsapp kunnen lezen. Dan is het op deze manier sneller.
In dat opzicht bestaat overkill inderdaad niet!

Nu, waarom moet het steeds sneller? Waarom hebben we niet gewoon een optimum waar we kunnen stoppen me sneller maken, omdat toch niemand het merkt...
De gpu in de soc is de Imagination PowerVRSGX544, dezelfde als in de nieuwste iPads.
De nieuwste iPads hebben een SGX554MP4. De SGX544 is aanzienlijk trager dan een enkele SGX554 core.

De SGX544 is heel erg vergelijkbaar aan de SGX543 qua performance, deze is bijvoorbeeld in een 2-core configuratie te vinden in de iPhone 4s. Hoe de single core configuratie van ST is zal afhangen van de klokfrequentie. Volgens eerdere geruchten (waarbij de L8580 nog als 2.3GHz dual core A9 door het leven ging) werd er gesproken van een klokfrequentie van 600MHz voor de SGX544, mocht deze klokfrequentie kloppen dan zal hij een 50% sneller zijn als de GPU van de iPhone 4s, in de 4s draait de SGX543MP2 namelijk op 200MHz.


@oooskar (3 posts hierboven)
• De match qua CPU/GPU prestaties zal acceptabel zijn zolang de klokfrequentie van de GPU maar hoog genoeg is.
• Je hebt gelijk dat de A15 quadcores deze SoC volledig zullen verslaan, echter is dat niet echt een eerlijk vergelijk. Met vier A9's en een SGX544 op 28nm zal dit een behoorlijk kleine en (waarschijnlijk ook) goedkope chip zijn die je eerder in midrange producten zal vinden dan in high producten.

[Reactie gewijzigd door knirfie244 op 11 januari 2013 12:57]

Idd, ST-E maken veel goedkopere chips die ook nog is snel zijn! Ga aub niet vergelijken met een Iphone 4/Ipad 3 die 500 + kost.

De xperia U heeft ook een Novathor en kost nog geen 180,- en is lekker snel. Hetzelfde zullen ze met deze doen. In de midrange loopt deze telefoon veel concurrenten voorbij. 200-350

* Als je een Skoda/Seat koopt klaag je toch ook niet dat je de performance van een Audi verwacht onder de motorkap.

Natuurlijk eet de Audi deze auto's helemaal op. :Y)

[Reactie gewijzigd door guidonno op 11 januari 2013 13:27]

skoda/seat/audi/volkswagen/Lamborghini vallen allemaal onder de VW groep.
Ze maken gebruik van dezelfde onderdelen.
Bijvoorbeeld een audi motor 1.4 tsi zie je ook terug in een skoda. Zelfde knopjes/buitenspiegels/hoofdsteunen etc etc.
Audi R8 heeft de motor van Lambo ;)

[Reactie gewijzigd door alteclansing op 11 januari 2013 13:38]

Correctie de Audi R8 heeft gewoon een Audi motor (zowel de V8 als V10), de Gallardo mag dan wel Lamborghini op het motorblok hebben staan het is en blijft een Audi motor.
Enkel de V12 is een "echt" Lamborghini blok.

De (4-cilinder) motoren in VW's, Audi's, Skoda's en Seats zijn inderdaad allemaal identiek op de chipset na want verschil moet er zijn al is het schone schijn...

Allemaal volledig off-topic natuurlijk maar als autoliefhebber en part-time ontwerper kon ik dit echt niet laten gaan.
Visueel ingesteld ;) Thnx voor de toelichting.
[ik zal ook maar offtopic gaan]
oh ja ik zie geen verschil tussen mijn Octavia 1.6TDI 105pk (greenline) en een Audi TDIe 1.6 105pk :-D Zelfde motor ook nog in een Golf BlueMotion 1.6TDI. Alle 3 een testrit mee gemaakt, allemaal dezelde (lawaai, optrekken, toerental bij 120, ...)
Grafische kracht van dit ding is compleet ruk in verhouding tot de CPU kracht. Die SGX544 single core versie zoals hier gebruikt presteert minder dan de veel gebruikte MALI 400 chip. En ik hoop dat ze het energieverbruik een beetje goed onder de loep hebben genomen met 4x Cortex A9.

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Tablets Luchtvaart Samsung Crash Smartphones Microsoft Apple Games Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013