Door Arnoud Wokke

Redacteur Tweakers

Quadcores in smartphones: wat heb je eraan?

13-02-2012 • 08:00

123

Multipage-opmaak

Inleiding: het volgende station

De vooruitgang in de telecomsector heeft wel wat weg van een hogesnelheidstrein zonder remmen. De eerste telefoon met een dualcore-soc werd in januari 2011 gepresenteerd en ging in april in de verkoop. Naar alle waarschijnlijkheid gaan we nog deze maand de eerste telefoons met quadcore-socs zien: onder meer HTC en LG staan op het punt om hun eerste quadcoretoestellen uit te brengen.

De snelheid waarmee de quadcores de dualcores opvolgen, wijst erop dat de telefoonfabrikanten elkaar de loef proberen af te steken met de indrukwekkendste specificaties. Hoe de quadcoretelefoons ten opzichte van eerdere toestellen presteren, zullen we echter moeten afwachten. We hebben tot dusver alleen nog maar benchmarkresultaten van de Asus Transformer Prime-tablet, de eerste Android-tablet met een quadcoreprocessor.

In dit verhaal staan we even stil bij de ontwikkelingen. Want: waarom zijn telefoons met quadcoreprocessor nodig? Bieden ze wel iets extra's ten opzichte van dualcores?

Geen snelheidslimiet

De weg naar quadcore

Een paar jaar geleden waren er nog maar nauwelijks smartphones en degenen die er waren, verkochten maar matig. Bedrijven investeerden daarom minder in smartphones dan nu, en dat had weer tot gevolg dat de innovaties op hard- en softwaregebied elkaar maar langzaam opvolgden.

Dat is nu wel anders: de ontwikkelingen in de telecomindustrie gaan zo hard, dat het nog maar de vraag is hoe lang de fabrikanten dit volhouden. Er komt een punt waarop smartphoneverkopen stabiliseren en de inkomsten daardoor stagneren. Zowel fabrikanten als chipmakers zullen hun r&d-budgetten dan vermoedelijk bijstellen.

LG Optimus 2X SpeedDaar komt bij dat vernieuwende toestellen lang niet altijd goed verkopen. Toestellen als de Toshiba TG01 - de eerste smartphone met een 1GHz-processor - en de LG Optimus 2X Speed - de eerste smartphone met een dualcore-processor - waren niet erg succesvol.

Toch zijn die twee toestellen mijlpalen in de telecomgeschiedenis. De Qualcomm QSD8250 uit de TG01 was niet alleen de eerste soc die de 1GHz-barrière doorbrak, maar ook de eerste soc op basis van de Scorpion-processorcore, die nog steeds in nieuwe processors wordt gebruikt. Pas dit jaar zal Scorpion worden afgelost door de Krait, een ontwerp dat zuiniger en sneller moet zijn.

Toshiba TG01

Ongeveer tegelijkertijd kwam ARM met de Cortex A8. Deze markeerde de overgang van de ARMv6- naar de efficiëntere en zuinigere ARMv7-architectuur.

ARM heeft diverse processorcores op basis van de ARMv7-architectuur ontwikkeld. De Cortex A8 is bekend van onder meer de Samsung Hummingbird van de Galaxy S en de Apple A4 van de iPhone 4. De Cortex A9, het eerste ontwerp dat multicore-processors ondersteunt, werd gebruikt voor chips als de Samsung Exynos 4210 uit de Galaxy S II en de Apple A5 uit de iPhone 4S. De Cortex A15, de opvolger van de A9, zal vermoedelijk medio dit jaar voor het eerst in hardware opduiken. De eerste quadcores, die we deze maand gaan zien, zullen nog geen Cortex A15-processors zijn, maar quadcore-varianten van de Cortex A9.

De soc: het hart van een smartphone

Als er gesproken wordt over dualcore, quadcore en kloksnelheden, gaat het alleen over de applicatieprocessors. Maar er is veel meer: alle moderne smartphones beschikken over een zogenoemde system on-a chip, afgekort tot soc.

Op deze soc zitten naast de applicatieprocessor(s) ook de grafische processor, een geheugencontroller, een i/o-controller, signaalprocessors voor multimedia en, afhankelijk van de chip, onderdelen die de ontvangst van gsm, 3g, wifi, bluetooth, gps, fm-radio en dergelijke regelen.

Door deze onderdelen in een enkele chip te integreren, is het mogelijk om een kleinere behuizing te gebruiken. Ook zijn de afstanden tussen de onderdelen kleiner, wat het stroomverbruik kan verminderen. Een nadeel is dat de fabrikant een soc niet zelf kan aanpassen aan de specifieke eisen van een telefoon.

Daarmee bepaalt een soc niet alleen wat een smartphone kan, maar ook wat hij niet kan. De soc dicteert de maximale resolutie van het scherm, de maximale resolutie van foto's en video's die de camera kan produceren en vaak ook welke netwerken worden ondersteund.

Printplaat van een smartphone uit 2009

Een stiekeme vijfde core

Dit artikel gaat over quadcores, maar schijn bedriegt: alle quadcore-socs lijken een vijfde processorkern te krijgen. Deze companion core is lager geklokt en gebruikt minder energie dan de andere vier. Hij wordt ingezet voor lichte taken, die dan kunnen worden afgehandeld zonder dat een van de snelle cores een aanslag op de accu pleegt.

De implementatie van de vijfde core is bij alle socs anders. De Nvidia Tegra 3 heeft een vijfde Cortex A9-core. Deze draait maximaal op 500MHz en heeft een ander type transistors, waardoor het stroomverbruik lager is dan dat van de andere cores op dezelfde kloksnelheid. Als deze kern hoger zou worden geklokt, zou het stroomverbruik echter hoger zijn; vandaar dat Nvidia in dezelfde soc verschillende transistortypes toepast.

Companion core Tegra 3

Samsung gaat waarschijnlijk de standaardimplementatie van ARM gebruiken, waarbij voor de vijfde core een Cortex A7 wordt gebruikt. Die is veel minder krachtig dan een Cortex A9, maar ook weer zuiniger. Dit concept is 'big.Little' gedoopt.

big.Little

Texas Instruments heeft het concept met verschillende cores op een soc nog wat verder doorgevoerd. In de dualcore Omap4470 zitten twee Cortex A9-cores maar ook twee Cortex M3-cores om lichte taken van de A9's over te nemen. In de nog te verschijnen Omap5-serie worden twee Cortex A15-cores en twee Cortex M4-cores gebruikt. TI heeft echter nog geen 'echte' quadcores aangekondigd en loopt daarmee enigszins uit de pas.

De extra cores maken in elk geval dat de energiehongerige Cortex A9-cores niet gebruikt worden als dat niet nodig is. Dat levert uiteraard vooral voordeel op als de smartphone niet gebruikt wordt, maar het is nog onduidelijk hoe groot dat voordeel is.

De eerste quadcores

Nvidia's Tegra 2, bekend van onder meer de LG Optimus 2X Speed en Android Honeycomb-tablets als de Samsung Galaxy Tab 10.1 en de Asus Transformer, was de eerste dualcore die in productie werd genomen.

De Tegra 3 was op zijn beurt de eerste quadcore die zijn weg naar de winkel vond: vorige maand kwam de Asus Transformer Prime uit, de eerste tablet met een quadcore-soc. Het grootste verschil tussen de Tegra 2 en de Tegra 3 - naast het aantal cores - is dat de Tegra 3 dynamische kloksnelheden heeft: niet alle cores draaien altijd op dezelfde kloksnelheid. Bij de Tegra 2 is dat wel het geval, met een hoger energieverbruik als gevolg. Daarnaast heeft de Tegra 3 dus een zuinige companion core voor achtergrondtaken.

De gpu is nog altijd een ultra low power-GeForce, die drie keer zo krachtig zou zijn als de grafische processor van de Tegra 2. Dat is een behoorlijke, maar geen wereldschokkende verbetering. De Tegra 3 ondersteunt verder ddr3-geheugen en de maximale grootte daarvan is opgeschroefd van 1GB naar 2GB. De soc wordt nog altijd op 40nm gebakken, wat weer een nadeel op het gebied van vooral energieverbruik is.

Andere fabrikanten werken uiteraard ook aan quadcores in ontwikkeling. Samsung komt binnenkort met de Exynos 4412, een soc met vier Cortex A9-cores. Het typenummer wijst erop dat deze soc op 32nm wordt gebakken, en niet op 45nm, zoals de Exynos 4210. De gpu is vermoedelijk een Mali T604-quadcore.

Ook Apple zou aan een quadcore-soc werken. Deze A6 zou vier Cortex A9-kernen bevatten en met 28nm-technologie worden geproduceerd, maar verder is nog niks over deze chip bekend. De gpu zal vermoedelijk een PowerVR SGX544MP4 worden, die tot 16 cores kan omvatten. De Apple A5, die in de iPhone 4S en de iPad 2 wordt gebruikt, heeft twee Cortex A9-kernen een SGX543MP2-gpu.

Nieuwe dualcores

De komende tijd zullen we nog vooral nieuwe dualcores zien. Dat lijkt geen stap vooruit ten opzichte van de socs als de Tegra 2 en de Qualcomm MSM8260, maar deze chips zijn wel degelijk beter dan de huidige dualcores.

De MSM8960 en de MSM8260A van Qualcomm zijn bijvoorbeeld dualcores met de Krait-core. Deze chips worden gebakken op 28nm en krijgen met de Adreno 225 een nieuwe gpu. De overstap naar quadcores maakt Qualcomm pas met de APQ8064, maar die is niet voor gebruik in smartphones. Qualcomm heeft nog geen quadcores voor smartphones aangekondigd.

Texas Instruments is eveneens nog niet klaar om quadcores te leveren. De Omap5-serie ondersteunt weliswaar vier processorkernen, maar de aangekondigde modellen hebben er maar twee. De socs zijn wel al gebaseerd op het Cortex A15-ontwerp. Samsung heeft de dualcore Exynos 5250 in de coulissen staan. Deze 32nm-soc heeft net als de Omap5 twee Cortex A15-kernen.

Ook minder bekende fabrikanten zijn bezig met nieuwe dualcores. Halfgeleiderfabrikant ST-Ericsson wil dit jaar bijvoorbeeld zijn NovaThor-dualcores groots lanceren. Onder andere Samsung en Sony zullen de NovaThor U8500-soc voor goedkopere modellen gebruiken.

Sony Ericsson Xperia P met ST-Ericsson-soc

Het nut van meer cores

Je zou kunnen denken dat een quadcore-processor in een telefoon overkill is. We vragen echter steeds meer van onze smartphones, dus het is nog maar de vraag of een viertal kernen echt overbodige luxe is. Een telefoon met een quadcore kan simpelweg meer werk verzetten. Daar staat tegenover dat, als alle cores tegelijk voluit worden belast, de accu in minder dan geen tijd leeg is.

Algemeen wordt verondersteld dat vier processorkernen de interface vloeiender maken: apps zullen sneller starten en multitasken werkt beter. En het lijkt tegenstrijdig, maar bij gelijke belasting zou een quadcore ook langer met een acculading moeten doen.

Systeemprocessen op de achtergrond

Android - de specsheetrace vindt vooral plaats op Googles mobiele platform, omdat de andere besturingssystemen met een enkele processor in het achterhoofd worden ontwikkeld - handelt veel systeemtaken op de achtergrond af.

Een van die taken is garbage collection. Hiermee gaat het systeem na of geheugen dat door programma's is gebruikt, alweer is vrijgekomen. Dat vraagt uiteraard aandacht van de processor en gebeurt met grote regelmaat, en op de achtergrond. Als het goed is heeft de gebruiker hier geen last van, al gaat dat niet altijd goed: bij Android Honeycomb kreeg garbage collection soms voorrang boven het renderen van de interface, waardoor lag optrad. Extra cores zorgen ervoor dat dit proces op het juiste moment kan worden uitgevoerd, en zonder dat de telefoon de hik krijgt.

Als je maar een enkele core tot je beschikking hebt, moeten zulke taken zeer zorgvuldig geprioriteerd worden. Dan nog heeft de processor minder tijd voor andere taken, zoals het draaien van een browser of het ophalen van gegevens. Met twee cores is dat probleem al deels uit de weg, omdat het werk over beide kernen kan worden verdeeld. Met vier kernen is er uiteraard nog minder kans dat er werk in een wachtrij moet worden gezet.

'Snel' of 'snel leeg'?

Het liefst zou iedereen willen dat een telefoon het een week of langer met een acculading uithoudt. Voor een apparaat waarmee je belt, sms't, mailt, browset, chat en gamet, is dat echter wel wat veel gevraagd. Veel smartphones moeten elke avond aan de lader.

Accu Galaxy NexusOp het eerste gezicht zou je denken dat een telefoon alleen maar sneller leeg gaat als er nog meer energieverbruikende cores in worden gestopt. Dat is dus te kort door de bocht: quadcore-socs zouden juist minder van de accu vragen.

Ten eerste kan bij zware taken de last verdeeld worden over meerdere cores, die daardoor op een lagere kloksnelheid en een lager wattage kunnen werken. Daardoor vragen ze elk minder energie van de accu.

Daar komt bij dat een companion core voor een lager verbruik zorgt als de telefoon niet wordt gebruikt. Omdat telefoons gedurende school- en werkdagen vaak urenlang ongebruikt blijven, kan dat een verschil maken. Uiteraard kan dit concept ook bij singlecore- en dualcore-soc worden gebruikt, zoals met de Cortex M3-cores in Texas Instruments' Omap4470.

Hoe nieuwer de soc, hoe beter vaak ook de procestechnologie waarmee de chips worden gebakken. Een kleinere feature length zorgt ervoor dat componenten en afstanden kleiner zijn en dus minder energie nodig hebben. De Qualcomm MSM8960 heeft bijvoorbeeld kleinste details van 28nm, en dat leidt direct tot een langere accuduur dan bijvoorbeeld bij een 45nm-chip.

Toch betekent zuinigheid niet dat je ineens dagenlang je smartphone kan gebruiken zonder naar een stopcontact te hoeven. Een krachtigere, snellere telefoon nodigt immers ook uit tot meer gebruik - en high-end smartphones worden meestal toch al gekocht door intensieve gebruikers.

Tot slot is de accuduur voor een flink deel afhankelijk van de kwaliteit van de software. Telefoonfabrikanten brengen nieuwe hardware graag zo snel mogelijk op de markt, en het is niet ongebruikelijk dat de bijbehorende software bij de release nog bugs bevat. Een goed voorbeeld is de Nokia Lumia 800: Nokia gebruikte daarin voor het eerst een Qualcomm-processor, en er moesten twee updates aan te pas komen om de accuduur te verlengen.

De eerste benchmarks

We kunnen nog geen goede indicatie geven van de prestaties van quadcores in smartphones: de toestellen zijn nog amper aangekondigd, laat staan dat we al benchmarks hebben kunnen draaien.

Het enige wat in de buurt komt zijn de benchmarks van de Transformer Prime: die heeft bijna dezelfde specificaties en dezelfde software als de originele Transformer, maar beschikt over een Tegra 3 in plaats van Tegra 2. Jammer genoeg is de kloksnelheid hoger: 1,4GHz voor de Prime tegen 1GHz voor zijn voorganger. De soc is echter het belangrijkste verschilpunt.

AnTuTu
Telefoon / TabletSoCGHz Punten, hoger is beter
Asus Transformer Prime Tegra 3 1,4 GHz
*******
10.391
Asus Transformer Tegra 2 1,0 GHz
***
4539

De AnTuTu-benchmark test de rekenkracht en de grafische prestaties, en voert een database-i/o-test uit. Het verschil wordt hier direct duidelijk: de Tegra 3-tablet presteert meer dan twee keer zo goed als de Tegra 2-tablet.

Gl Benchmark - PRO fps 720p
Telefoon / TabletSoCGHzFramerate in fps, hoger is beter
Asus Transformer Prime Nvidia Tegra 3 1,40 GHz
*******
78,3
Asus Transformer (3.2.1) Nvidia Tegra 2 1,00 GHz
****
41,1

GLBenchmark is een gpu-test en meet daardoor dus niet de processorkernen zelf. De gpu van de Tegra 3 is echter flink verbeterd en dat is duidelijk te zien in de benchmarks.

Invloed op software

BrowserMark
Telefoon / TabletSoCGHzPunten, hoger is beter
Asus Transformer Prime Tegra 3 1,4 GHz
*******
106.592
Asus Transformer Tegra 2 1,0 GHz
******
86.852

BrowserMark meet de snelheid van de browser aan de hand van een aantal tests met animaties. De Prime scoort hier fiks hoger dan de originele Transformer met dezelfde software, en we mogen concluderen dat de quadcore wel degelijke een significante invloed op de prestaties van de browser heeft.

Frontpage laden (automatisch)
Telefoon / TabletSoCGHzTijd in seconden, lager is beter
Asus Transformer Prime Tegra 3 1,40 GHz
*******
0,62
Asus Transformer Tegra 2 1,00 GHz
*******
0,65

Die invloed zien we minder terug in de in de test waarbij onze frontpage wordt geladen. De scores zijn sowieso niet denderend, maar de Prime is slechts een fractie sneller. De Tweakers.net-frontpage leunt overigens behoorlijk zwaar op Javascript.

Invloed op accu

Accutest - Film (250cd/m2)
Telefoon / TabletSoCGHzTijd in minuten, hoger is beter
Asus Transformer Prime Tegra 3 1,4 GHz
*******
519
Asus Transformer (3.2.1) Tegra 2 1 GHz
*****
374

Op papier is de accucapaciteit zo goed als gelijk: rond 6600mAh. Bij het afspelen van een film heeft de Prime duidelijk baat bij zijn companion core, die alle taken behalve het afspelen van de film op zich neemt: de Prime houdt het veel langer uit dan de Transformer.

Accuduur - browsen
Telefoon / TabletSoCGHzTijd in minuten, hoger is beter
Asus Transformer Tegra 2 1 GHz
*******
338
Asus Transformer Prime Tegra 3 1,4GHz
******
288

In onze browsertest botst de theorie met de praktijk: de Prime gaat juist minder lang mee. Vermoedelijk worden de cores na het laden van de pagina niet meteen uitgeschakeld. Als dit een bug in Android is die bij de release van de eerste quadcoretelefoons niet is opgelost, is dat op zijn minst reden tot zorg. Daar moet wel bij worden gezegd dat de geteste Transformers op Android 3.2 draaien, terwijl de telefoons Android 2.3 of 4.0 aan boord zullen hebben.

Tot slot: afwachten

De eerste smartphones met quadcoreprocessors zullen niet lang meer op zich laten wachten. HTC zal op de telecombeurs Mobile World Congress, die eind deze maand in Barcelona wordt gehouden, vermoedelijk zijn eerste Tegra 3-toestel presenteren. Ook van LG verwachten we op deze beurs enkele toestellen met deze soc. Samsung zal wat later zijn Galaxy S III uitbrengen en ook dat toestel krijgt waarschijnlijk een quadcore aan boord.

Quadcores zijn volgens ons geen overbodige luxe voor de high-end smartphones van de toekomst. Er zit nog genoeg rek in dualcores, maar de extra processorkernen maken meer mogelijk en de opzet met de companion core kan voor de nodige extra accuduur zorgen. Daarnaast maken de nieuwe socs 3d-gaming op hogere resolutie en met meer frames per seconde mogelijk.

De eerste benchmarks met de Tegra 3 wijzen op een behoorlijke verbetering ten opzichte van de huidige generatie dualcores. Vermoedelijk wordt de Tegra 3 voor smartphones wel wat teruggeklokt, maar we rekenen alsnog op fors betere prestaties. Of die verwachtingen worden bewaarheid, zal blijken als de eerste quadcores in de winkel liggen. Dat zal naar alle waarschijnlijkheid al dit voorjaar het geval zijn.

Reacties (123)

Sorteer op:

Weergave:

Interessant verhaal.
Wat me opvalt is dat er vooral wordt ingezoomd op het energieverbruik van de processor, terwijl ook het scherm van zeer grote invloed is op de accuduur. Natuurlijk was het onderwerp van het artikel quad-core SoC's, maar nu wordt een beetje de suggestie gewekt dat vooral de CPU verantwoordelijk is voor het stroomverbruik. Dat is niet zo. Het scherm vreet stroom. Een verbetering van de efficiëntie van de SoC met 50% vertaalt zich dus (helaas) niet in een verdubbeling van het uithoudingsvermogen van de telefoon.
Het artikel heet niet voor niets "Quadcores in smartphones: wat heb je eraan?". De titel suggereert al dat er op de SOC, en met name de CPU, zal worden ingezoomd. Haalt niet weg dat ze misschien een vermelding erover hadden kunnen maken, en wat meer innovatie op dit terrein zou goed doen. Misschien werkt het de fabrikanten ook wel in de hand dat mensen in mijn ervaring sneller lijken te kijken naar prestaties van de SOC dan naar de prestaties van het scherm. Een scherm is al gauw een scherm. Een goed scherm geeft gewoon een goed en scherp beeld. Uiteraard is de realiteit anders, maar je merkt het niet direct (dwz, binnen de tijdsperiode van een paar minuten tot een uur). Zelfs als dan na een dag je accu leeg is heeft dit meer factoren dan alleen het scherm. Klanten weten niet altijd echt helemaal wat ze willen, en misschien even fabrikanten iets te letterlijk waar de klant om vraagt.
Je comment leek offtopic, maar je hebt wel gelijk, in de meeste gevallen is de winst vooral te behalen bij het scherm en het lijkt me niet de bedoeling van dit artikel om te suggereren dat de soc in z'n eentje de batterijduur in de hand heeft.

Hoe zit het trouwens met een eventueel verschil in scherm tussen de Asus Transformer en zn Prime broertje?
Auteurarnoudwokke Redacteur Tweakers @toonp13 februari 2012 12:38
Absoluut. Maar de technologie achter schermen en de verschillen in kleurweergave, scherpte en gevolgen voor de accuduur zijn een verhaal op zich. Een verhaal wat we hopelijk later dit jaar ook gaan schrijven :)
Samsung heeft Liquivista overgenomen, en PixelQi is bezig de boel langzaam op te schalen naar massaproductie, dus er is nog hoop.
Vreemde keuze voor benchmarks:

Er wordt in de benchmarks natuurlijk veel meer getest dan alleen het aantal cores. Tegra 3 heeft bijvoorbeeld een hogere klokfrequentie en NEON waardoor enkele benchmarks beter zullen scoren, daarnaast heeft de T3 ook veel betere hardware decoding als de T2 wat een logischere verklaring is voor de langere accuduur bij de video test als het aantal cores.

Behalve bij AnTuTu is er nergens een prestatiewinst die niet verklaard kan worden door de hogere klokfrequentie, NEON en een betere GPU (en hardware decoding). Zolang mobiele OS'en en de apps nog niet goed gebruik maken van de extra cores heb je heel weinig aan een quadcore.


Daarnaast zal een dualcore A15 in veel gevallen beter presteren dan een quadcore A9. Ook nVidia's companion core is niet heel geweldig, er zit een hoop latency in het schakelen en doordat het een A9 core is net als de gewone cores is de winst maar klein. Nu heb je dus een trade-off van een klein voordeel in verbruik tegen mogelijk slechte prestaties (wegens schakelen tussen companion core en normale core).

Echt voordeel van companion cores gaan we pas zien met de combinatie van A7 en A15 CPU's. De A7 is echt vele malen zuiniger (maar ook langzamer) als de A15.


Vreemde conclusies dus, maargoed.


@Dreamvoid
1 en ander kan je niet los van elkaar zien. Doordat de quad minder verbruikt dan de dual is er meer ruimte op de die voor een sterkere gpu.
Ik snap je punt niet, doordat de quad minder wat gebruikt?
• Minder Watt? Dat geeft niet direct meer ruimte voor de GPU, en is overigens door tweakers ontkracht in de browse-tijd test.
• Minder transistors? Juist het tegenovergestelde, grofweg gezien heeft een quadcore 2x zo veel transistors wat dus juist minder ruimte overlaat voor een sterke GPU (tenzij je een hele grote/dure chip wil maken).

@farlane - Klopt, ik ben ook zeer benieuwd naar de eerste OMAP4470 review.

@kidde - dat zou volgens de whitepaper zo moeten zijn, echter is er in reviews van T3 tablets te lezen dat de tablet soms te vaak, of helemaal niet schakelt. En daarnaast is een 2ms vertraging heel goed zichtbaar zichtbaar.

[Reactie gewijzigd door knirfie244 op 23 juli 2024 23:56]

Behalve bij AnTuTu is er nergens een prestatiewinst die niet verklaard kan worden door de hogere klokfrequentie, NEON en een betere GPU (en hardware decoding). Zolang mobiele OS'en en de apps nog niet goed gebruik maken van de extra cores heb je heel weinig aan een quadcore.
Dat was ook precies wat ik dacht... De GL benchmarks kunnen we gewoon negeren want die zeggen werkelijk waar niks over de toegevoegde waarde van quad-core. De andere benchmarks suggereren juist dat quad-core geen enkel verschil maakt en zelfs als een achteruitgang gezien kunnen worden als je ze zou vergelijken met een hypotetische 1.4 Ghz Tegra 2. De browser benchmark zou bijvoorbeeld al op 121K punten uitkomen als je simpelweg zou stellen dat 40% increase in kloksnelheid tot 40% meer prestaties zou leiden. Nu weet ik ook wel dat het niet zo linear stijgt, maar de Tegra 3 zou niet alleen meer maar ook geavanceerdere cores moeten bevatten, dus zo'n vreemde extrapolatie is het niet. Blijkbaar vertaalt zich dit totaal niet in betere prestaties klok-voor-klok.

Concluderend op basis van deze benchmarks zou ik dus zeggen dat er nog niets bewezen is in het voordeel van Tegra 3, en dat als deze benchmarks representatief zijn voor alle apparaten met Tegra 3, dat het zelfs heel erg tegenvalt. De GPU prestaties lijken nu enigzins op het niveau van (maar nog niet eens _beter_ dan) de huidige generatie GPU's zoals in de A5 of in de CPU van de PS Vita, en de CPU prestaties komen net mee met wat een A5, een Exynos of een recente OMAP zouden doen op 1.4 Ghz.

Wellicht gaan we mega grote verbetering zien als er meer applicaties komen die specifiek voor quad-core geschreven zijn, maar vooralsnog is Tegra 3 precies wat ik er al een half jaar geleden over voorspelde, wat toevalligerwijs precies hetzelfde is als destijds Tegra 2 en de originele Tegra: veel poeha en hete lucht, veel grote woorden, veel opscheppen over 'de eerste op de markt met dit en dat', maar wederom na de officiele 'lancering' praktisch niet in volume te krijgen, slechts in 1 apparaat beschikbaar waar bijna niet aan te komen is zonder lange wachttijden, en wederom tegenvallende prestaties.

[Reactie gewijzigd door johnbetonschaar op 23 juli 2024 23:56]

1 en ander kan je niet los van elkaar zien. Doordat de quad minder verbruikt dan de dual is er meer ruimte op de die voor een sterkere gpu.

En tsja, Tegra 3 zal niet de beste van zijn generatie worden, maar zolang het de enige is die ook verkrijgbaar is zal nVidia daar niet rouwig om zijn - ze verdienen nu al harde $$$ met echte Tegra 3's, terwijl TI, Samsung en Qualcomm alleen nog maar mooie spec sheets kunnen laten zien. Een hele aardige prestatie voor zo'n klein bedrijf als nVidia versus deze drie grote spelers.

[Reactie gewijzigd door Dreamvoid op 23 juli 2024 23:56]

De A7 is echt vele malen zuiniger (maar ook langzamer) als de A15.
Ben benieuwd wat die TI SoC's doen dan want een M3 is extreem zuinig vergeleken met een A15.
U doet er verstandig aan even nVidia's whitepaper door te lezen:

Die 'switch' gebeurt alleen bij overgang van 'active standby' naar 'zwaarder' gebruik en kost 2ms. Ter referentie: Knipperen met je ogen kost blijkbaar 150-300ms.
Sorry, maar dat verhaal over garbage collection klopt niet. Android is gewoon een sausje bovenop linux, en elke app is z'n eigen user, en draait in een eigen proces. Dat houdt in dat in elk proces met Java/Dalvik dus ook een eigen garbage collector draait (onderdeel van Dalvik). Het is dus niet zo dat er een background proces is dat GC afhandeld voor een of meerdere processen. Zover ik weet doen alleen managed operating systems zoals Singularity dat.

Daarnaast hebben quadcores weinig zin als je veel processen hebt met maar een enkele thread per proces. Omdat alle processen van elkaar afgeschermd worden middels de pagetable (process isolation) kan er ongeacht het aantal cores altijd maar een enkel proces tegelijk draaien. Aangezien Android een typisch Linux systeem is met honderden single-threaded processen zal je in de praktijk alleen een speed-up zien bij multithreaded applicaties. De hele Android API is er juist op gebouwd single-threaded te zijn: de main thread is zelfs gewoon een message-loop (duik maar eens in android.os.Looper/Handler). Omdat alles in een enkele thread gebeurt moet UI rendering wachten op eventuele GC - het aantal cores heeft daar geen enkele invloed op. ICS heeft nu een betere garbage collector en dat maakt veel goed, maar de Galaxy Nexus hier voor mijn neus is nog lang zo soepel niet als de Lumia 800 die er naast ligt, en dat ga je echt niet oplossen door er meer cores tegenaan te smijten.

edit: Ik zit natuurlijk keihard uit m'n nek te lullen. Die quadcore chips hebben gewoon een eigen MMU voor elke core. Prima multi-processing dus. Disregard de tweede paragraaf en dowvote as appropriate :)

[Reactie gewijzigd door Verwijderd op 23 juli 2024 23:56]

Omdat alle processen van elkaar afgeschermd worden middels de pagetable (process isolation) kan er ongeacht het aantal cores altijd maar een enkel proces tegelijk draaien.
Eh... het scheiden van applicaties door ze elk een eigen stuk virtueel geheugen toe te wijzen (process isolation) en dat virtuele geheugen te mappen naar fysiek geheugen (dmv pagetable) bepaalt/limiteert toch niet op welke core een proces draait? Al die cores kunnen tenslotte bij het geheugen. Door die 'honderden single-threaded processen' te verdelen over vier cores (ipv twee of een) zie je wel een verbetering in systeemprestaties, ook al lopen die processen indivdueel niet sneller omdat ze niet multithreaded zijn. Het heeft dan juist wel zin.

Edit: met de info die ik uit http://developer.android.com/guide/topics/fundamentals/processes-and-threads.html haal moet je inderdaad rekening houden met het niet blokkeren van de UI-thread van een applicatieproces. Met zaken als AsyncTask lijkt dat ook weer geen rocket science om voor elkaar te krijgen tbh.

[Reactie gewijzigd door Rafe op 23 juli 2024 23:56]

Het probleem is dat je doorgaans wel meerdere threads tegelijk kunt draaien, maar niet meerdere processen. Het heeft er mee te maken of elke core zijn eigen MMU heeft, of dat er een MMU is voor de hele chip. In dat laatste geval kun je nooit twee processen tegelijk draaien omdat die dan in elkaars geheugen zouden kunnen batsen. Zover ik weet hebben de meeste multicore SOCs maar een enkele MMU, maar don't quote me on that, ik ben geen computer engineer.

edit: zie op

[Reactie gewijzigd door Verwijderd op 23 juli 2024 23:56]

Programmeer jij met dezelfde Android API als ik? Er wordt juist van alle kanten gepushed twee of meer threads te gebruiken, je mag de UI thread immers nooit blokkeren. In de praktijk betekend dat vaak een worker thread en een vooral idle UI thread, maar goed het zijn wel meerdere threads. Daar komt bij dat de GC per thread werkt, en als het goed is is het dus ook meestal je worker thread die hier last van heeft, en niet je UI thread.

Verder vindt ik de claim dat de GC in ICS zoveel beter is ook wat kort door de bocht. Ik maak wat nogal CPU en geheugen intensieve apps, en in GB had ik duidelijk minder "last" van de GC dan op HC en nu ICS. Eigenlijk is het complete memory management system op Android redelijk ruk voor apps die tegen de limieten aan werken, maar goed, dat is weer een andere discussie. Ik heb er nogal wat code wijzigingen tegenaan moeten gooien om "GC trashing" te minimaliseren op HC en ICS - niet echt positief als je eerder geoptimaliseerd hebt voor GB en dat vervolgens averechts werkt.

De delays die geintroduceerd worden door de GC (in de worker threads) zijn simpelweg onacceptabel voor bepaalde types high performance apps. De enige workaround die je hebt voor een app die veel geheugen gebruikt is dan grote blokken geheugen innemen en die intern in je app gaan poolen, zodat de GC zelden tot nooit getriggerd kan worden. Dat dat precies is wat je idealistisch gezien NIET wil doen lijkt me duidelijk - maar dat is de realiteit van de nieuwe GC. Of je moet je geheugen natuurlijk geen managen vanuit een native library, aangezien dat niet gebonden is aan de per-app VM memory limit en GC, maar daar wordt je ook niet echt vrolijk van.

Het is natuurlijk ook zo dat Android aan echt multitasken doet, en al die overbodige Google en OEM zooi die op de achtergrond ik-weet-niet-wat aan het doen is de hele dag heeft wel baat van meer cores, heb jij er minder last van als je je single- of dualthreaded app aan het draaien bent waar je echt mee bezig wilt zijn. Dit kun je ook nooit vergelijken met een WP of een iOS waar de UI thread gewoon altijd voorrang heeft en multitasking halfbakken is; bij verreweg de meeste apps die je hebt draaien op je Android toestel is GC echt niet de vertragende factor.
Bijna goed: GC draait in een eigen thread daar hoef je niets voor te doen. UI kan dus concurrent met GC maar daarna houdt het automagische threaden wel op.
Je hebt helemaal gelijk wat de GC betreft. Toch zijn GC pauses nog een belangrijke bron van UI lag op Android.
Meerdere single thread apps verdelen zich juist wel over de verschillende cores.

Het enige probleem is de single thread app die 100% cpu vraagt. De andere cpu doet dan wel achtergrondprocessen, maar is voor de rest onbenut.
Op android valt dit nog mee aangezien er wat multithreading in de apps zit (browser, gc) en er full multitasking is. Op iphone heb je dat minder (scrollen terwijl je een webpagina laadt stop alle rendering en andere process).

Een lumia heeft geen betere scrolling dan een galaxy s2 (heb vorige week nog de vergelijking kunnen maken), daarnaast zijn veel animaties traag om de traagheid in het systeem te verdoezelen. De mooie draaiende animatie om vb mails te openen duurt 3x langer dan het openen van de mail app op een gs2.
En het ernstige is dat de Lumia "slechts" een single-core heeft. Een reden waarom ik ook voor Windows Phone ben gegaan, omdat ondanks alle power die je in een Android smartphone kan vinden, er helemaal geen drol wordt gedaan met deze power. Het is toch ernstig dat een dual-core/quad-core totaal niet zo soepel loopt als een iPhone 4(S), iPad(2) of een Windows Phone?
Volgens uw stelling heeft juist Nokia niets aan extra cores, want die hebben kennelijk aan 1 al genoeg.

Wat weer vaag is, want het lijkt erop dat Nokia binnenkort juist afnemer gaat worden van de snelste processoren met de meeste cores (die NovaThor meuk van ST-E).

Overigens denk ik ook dat het uitmaakt welke telefoons vergeleken worden, en laten we wel wezen: Die Lumia is nog redelijk nieuw qua ontwerp; en zo onderhand het hele OS is voor die specifieke telefoon geoptimaliseerd. Dus men mag toch ook wel verwachten dat het op dat ding een beetje soepel werkt; immers Microsoft maakt ook al ietsje langer dan Google mobiele besturingssysteempjes.

ed: En hier nog een filmpje waarop duidelijk te zien is dat de SGS2 bijna bij iedere taak die gestart wordt sneller of net zo snel is als de iPhone 4S. De reden dat die 4S soms sneller lijkt, is omdat hij animaties speelt (net als Windows schijnt) tijdens het 'langere' wachten.
Als je nou T-Mobile klantenservice belt en 5 minuten moet wachten met Bach op de achtergrond, of IKEA moet bellen en 3 minuten wachten in stilte, kunnen die drie minuten langer voelen (want Bach heerscht natuurlijk!!! Maar afgezien daarvan...)

[Reactie gewijzigd door kidde op 23 juli 2024 23:56]

Waar ik benieuwd naar ben: hoe verhouden de prestaties van die ARM processors tegenover de systemen van laptops en desktops (bij dezelfde kloksnelheid etc.)? Ben maar een noob natuurlijk, dus ik weet niet of dit algemene kennis hoort te zijn :)

Ik weet dat x86 en x64 chips minder energie-efficiënt zijn, maar ik neem aan dat daar een bepaalde discrepantie in prestaties of veelzijdigheid tegenover staat. Anders gezegd: zou ik (in theorie) bijv. een desktop linux-distro op m'n galaxy s2 beter kunnen draaien dan op m'n oude 1.6 GHz singlecore laptop (AMD-64)? Zou je je telefoon + groter scherm & toetsenbord echt als volwaardige vervanging kunnen zien voor een basisnotebook?
Dat is juist de miljoen-dollar vraag, waar momenteel niemand afdoende antwoord op heeft.

Probleem is, dat er weinig tot geen programma's/benchmarks zijn die 'ongewijzigd' op beide 'apparaten' draaien.

Dus men kan wel een leuk browserbenchmarkje doen op een desktop / laptop / netbook / tablet / smartfoon, maar dan meet men:

-Hoe goed de programma's geschreven zijn,
-In het geval van JavaScript: Hoe goed de JavaScript interpreter is,
-Hoe goed de compiler geschreven is,
-Hoe goed het OS gebruik kan maken van wat de hardware aanbiedt,
-Hoe goed de hardwaremaker de firmware heeft gemaakt,
-Hoe goed de hardwaremaker heeft gecommuniceerd over hoe deze gebruikt kan worden door programmeurs,
-Hoe goed de hardware is.

"Hardware" valt dan weer onder te verdelen in instructieset (x86, x86_64, ARM of MIPS), microarchitectuur (Cortex A8, A9, A15, Qualcomm Scorpion, Marvell Sheeva vs . Intel Medfield, AMD10h etc) en productie-procede.

Maw: De hardware is maar 1 van de 7 puntjes die ervoor zal zorgen of die S II net zo snel GTA III kan draaien als uw 1.6gHz AMD 64 laptop (want GTA III komt blijkbaar naar Android).

Makers van CPU's / GPU's komen dus vaak met termen aan als 'fill rate' in giga-pixel / millions of polygons per second en 'dhrystone MIPS' en dat soort zaken, en die scoren dan voor moderne smartfoons gelijk aan een PS3. Maar goed, dat zegt vervolgens eigenlijk niets over wat de gebruiker ervaart.

Dus eigenlijk zijn voor de eindgebruiker de prestaties van de hhardware pas belangrijk als de andere zaken gelijk blijven, en dat is eigenlijk nooit het geval.

Alles voor de desktop (met name compiler GCC, welbekend voor Linux-gebruikers) uber-geoptimaliseerd voor Intel's x86 en alles op de "mobiele markt" (maar ook 'interne' software voor ARM chipjes van netwerk kaarten / hardeschijf-kaarten) voor ARM. En van nieuwe krachtige features wordt door software vaak nog geen gebruik gemaakt.

Dit alles leidt ertoe dat helaas momenteel niemand kan zeggen hoe een dualcore Cortex A9 nou echt presteert tegenover een Intel Core iSomethingMeaningless / AMD Brazos-gevalletje: Men meet tijdens het benchmarken net zo hard OS / compiler / programma enzovoort.

En natuurlijk - voor Linux gebruikers welbekend:

Wat het snelste is, voelt niet altijd het snelste! In de Linux-kernel zitten 'plan-schema's voor grote servers die veel taken tegelijkertijd doen, zodat alle taken bij elkaar zo snel mogelijk afgerond zijn.

En raad eens: Een desktop gebruiker zit een flash filmpje te kijken terwijl Linux bedenkt dat het ook nog iets anders wil doen, dan wordt dit zo gepland dat alles samen zo snel mogelijk af is, dus gaat die Flash-video ("Youtube" dus, voor de gemiddelde gebruiker) lopen haperen. De gebruiker denkt nu echter dat Linux supertraag is, "want het kan niet eens vloeiend Flash afspelen". Windows en Mac OS zouden waarschijnlijk de rest laten wachten, zodat alles bij elkaar juist trager gaat, maar het voelt juist sneller.
BrowserMark meet de snelheid van de browser aan de hand van een aantal tests met animaties. De Prime scoort hier fiks hoger dan de originele Transformer met dezelfde software, en we mogen concluderen dat de quadcore wel degelijke een significante invloed op de prestaties van de browser heeft.
Ik weet niet hoor... maar gezien dat de score van de Tegra 3 (Transformer Prime) op 1.4 Ghz zo'n 22.7% hoger ligt dan de score van de Tegra 2 (Transformer) op 1.0 Ghz... zou ik niet durven concluderen dat de twee extra cores enige invloed op de prestaties hebben...

Misschien dat je het overtuigend kan maken door extra testscores toe te voegen van een Tegra 2 op verschillende kloksnelheden, of door te kijken naar de CPU belasting (per core) tijdens de test... maar zoals het nu staat lijkt het alsof de volledige prestatiewinst te danken is aan de hogere kloksnelheid.
Sterker nog de winst is maar 22.7% terwijl de cores verdubbeld zijn en de Mhz met 40% gestegen zijn, vindt dat dan ook erg matig!

Maargoed die benchmark test niet enkel de CPU maar het complete apparaat (ook de snelheid van het RAM/ROM/SDCARD), dus je kan sowieso geen prestatiewinst aan de CPU toeschrijven, tenzij er met subscores vergeleken was, wat weer niet het geval was.

Beter deden ze superpi oid. Dat is CPU only, of pakte ze subscores van verschillende andere benchmarks (antutu, quadrant, smartbench 2010/11/12)!
Ik hoop echt zo dat de R&D jongens van de telefoon maatschappijen vanaf nu al hun budget steken in de ontwikkeling van nieuwe accu's...

Ik begrijp dat een quadcore beter is voor de accu duur dat hebben de jongens van tweakers weer mooi uitgelegd. maar ik mis mijn nokia 3410 die t twee weken uithield op zijn accu
Met je eens. Maak eens fatsoenlijke accu's die het volhouden of schrijf de programma's beter.

Daarbij; een telefoon is zo snel als deze aanvoelt. Mijn Lumia 800 krijgt nog steeds dezelfde reacties: "damn die is snel". En als je een keertje moet wachten op een app, tja so be it. Heb ik op mijn pc ook.

Het voelt een beetje hetzelfde als met de GFX kaarten. Ze blijven maar pushen totdat ze niet meer verder kunnen en de verschillen minimaal worden en je eigenlijk alleen via de benchmarks het verschil kunt meten.
Makkelijk om te schreeuwen dat ze maar betere accu's moeten maken. De realiteit is echter dat de accu's in telefoon de top-of-the-line zijn.

De reden dat de telefoon minder lang op een accu meegaat is simpelweg omdat je meer doet. Zit die smartphone maar eens op roaming, en draai geen apps op je phone. Plotseling gaat die dan ook 4 dagen mee, i.p.v. 1 dag.

Je kunt nou eenmaal niet 100x meer dingen doen om je telefoon, en dan verwachten dat je nog steeds met dezelfde accu lading kan werken als op een dumb phone.
De reden dat de telefoon minder lang op een accu meegaat is simpelweg omdat je meer doet.
Dat is zeker waar - maar een bijkomend probleem is dat de batterijen relatief kleine capaciteiten hebben. Als je je telefoon 3mm dikker zou accepteren kon er meteen een flink grotere batterij in. Maar mensen willen nu eenmaal graag een dun mobieltje.
en een benchmark is ook maar een benchmark.. daar hangt eigenlijk de rest van je systeem ook een beetje vanaf. tenminste, bij computers.
Verbeteringen in batterij technologie gaan relatief traag, zeker in vergelijking met halfgeleider en harde schijf technologie. Daar is dus relatief weinig winst te verwachten. Er wordt wereldwijd bijzonder veel onderzoek gedaan naar betere batterijtechnologie. Langere gebruiksduur komt toch vooral uit betere hardware en software.
Ik begrijp dat een quadcore beter is voor de accu duur dat hebben de jongens van tweakers weer mooi uitgelegd. maar ik mis mijn nokia 3410 die t twee weken uithield op zijn accu
Dit wordt dan wel elke keer mooi gezegd, maar ik zie hier nooit enige vorm van bewijs. Naar mijn menig moet het niet zoveel uitmaken, want het wattage per core wordt dan misschien wel minder (minder belasting etc) maar dit moet je dan ook x2 doen of x4 voor een quadcore (als alle cores dan meewerken). Hoe kan het zijn dat je voor een bepaalde taak zoveel rekenkracht nodig hebt en dat je dan met een dual of quad core dan ineens minder werk nodig zou moeten hebben (in totaal)?

Het enige idee wat ik me kan voorstellen is dat de efficientie significant afneemt als een processor op 100% werkt. In dit geval zou een dual/quad core zuiniger zijn, maar geen idee of dit ook daadwerkelijk zo is.

Ik krijg nu een beetje het idee dat als je 2 motoren in een auto stopt en 100km/h blijft rijden je ineens minder benzine nodig hebt dan dat je een auto hebt met 1 motor met 100km/h. Dit klopt natuurlijk niet en zou juist minder efficient kunnen zijn (aangezien de constructie complexer wordt en er waarschijnlijk meer verliezen optreden).

Maar goed we zullen zien, wie weet dat dit concept wel werkt aangezien hier natuurlijk wel een 5e zuinigere core wordt gebruikt.
Denk ook aan het voltage. Stel je hebt 1 core op 1.6GHz dan is die uiteraard sneller dan 4 soortgelijke cores op 400MHz. Echter, wanneer je die chip op 1.3V moet laten lopen voor 1.6GHz en hij op 400MHz met 0.9V toe kan is het stroomverbruik vele malen hoger. Energieverbruik schaalt lineair met klokfrequentie maar tot de derde macht met voltage. Dit omdat het stroomverbruik bij microchips toeneemt wanneer het voltage toeneemt. De realiteit is dus eerder dat je van het energiebudget van 1 core op 1.6GHz er ook 4 op 800MHz kunt laten werken. De winst hiervan lijkt me duidelijk.
laten we niet overdrijven, in principe schaalt vermogen kwadratisch met spanning, bij een gelijk blijvende last. Neemt niet weg dat je een goed punt hebt, dat 2 cores op halve spanning en halve kloksnelheid, de helft van het vermogen verbuiken bij ongeveer gelijkblijvende prestaties.

Verder heb je bij meer cores het voordeel dat je minder last hebt van pre-emption, omdat je stomweg meer processen tegelijk kunt draaien. En dat is weer minder context switches en dus meer performance
Ohja klopt, ik was vergeten dat vermogen kwadratisch schaalt met voltage.

Edit: typfoutje

[Reactie gewijzigd door Seb1990 op 23 juli 2024 23:56]

Auteurarnoudwokke Redacteur Tweakers @looyenss13 februari 2012 08:45
Ik hoop echt zo dat de R&D jongens van de telefoon maatschappijen vanaf nu al hun budget steken in de ontwikkeling van nieuwe accu's...
Niet al het budget, maar er zit schot in: Sony's Xperia S heeft een snel ladende accu (dat helpt ook een beetje), terwijl de Motorola Droid Razr Maxx een 3300mAh-accu heeft in een behuizing dunner dan die van de iPhone 4S of Samsung Galaxy S. Ter vergelijking: veel smartphones hebben accu's van rond 1500-1750mAh.

Het wachten is nog wel op een echte doorbraak, die een soort perpetuum mobile mogelijk maakt ;)
Die worden niet ontwikkeld door de telefoonfabrikanten hoor, eerder gewoon ingekocht. Daar zal eerst een belangrijke (fundamentele) accu-technische stap voor gemaakt moeten worden. En daar wordt zeker geld in gestopt, gezien elektrische auto's etc.
hopelijk dat de accu's en de software beter worden want de software maakt ook echt VEEL uit.

ik heb momenteel een HTC Desire HD en toen ik hem pas kreeg met de stock rom hield hij het zelfs met bijna geen gebruik met pijn en moeite 18 uur vol.

laterna de rom van ARHD er op gezet en toen lukte het al hem een 2 dagen te gebruiken.

nu met de laatse versie van ARHD ( gebruik hem wel iets minder ,nu en dan ffe wat lezen op cracked/muziek luisteren/als afstandbediening voor XBMC) heb ik hem al 3 dagen niet aan de lader gehad en ik heb nog 37% over op mijn accu.

en dat met een 1230Mah accuutje (wel single core).

[Reactie gewijzigd door anub1s17 op 23 juli 2024 23:56]

Ik zie meer heil in een beter OS. Wat dat betreft kan Google nog wat van Apple leren. De manier waarop apps op IOS op de achtergrond informatie kunnen blijven ontvangen en versturen zonder dat de gehele app uitgevoerd dient te worden is een hele verbetering.
De manier waarop apps op IOS op de achtergrond informatie kunnen blijven ontvangen en versturen zonder dat de gehele app uitgevoerd dient te worden is een hele verbetering.
Dat kunnen Android apps precies hetzelfde, punt is dat er keuze is en de developers blijkbaar de makkelijke weg kiezen!

En of Google dingen moet forceren, denk het niet want dat is nou juist het mooie aan Android, het grote voordeel, dat je zelf alles (naja niet alles maar de meeste vrijheid van alle bekende OSen) in de hand hebt!

[Reactie gewijzigd door watercoolertje op 23 juli 2024 23:56]

Wat dat betreft kan Google inderdaad nog wat van Apple kopieren uhm leren, en reken maar dat dit een van de redenen is waarom ICS a.ka. 4.0 uitkomt:

Vermoedelijk valt er bijvoorbeeld in een snellere Javascript-engine bij gelijkblijvende hardware al vele tientallen procenten winst te halen.

Net nog FF 10.0 getest op de Kraken 1.0 benchmark en die vergeleken met FF3.6, allebei exact zelfde (oude) computer. En raadt eens: 10.0 is 6x zo snel als 3.6.

Android stond er natuurlijk o.a. om bekend dat niet de gehele meuk met OpenGL gerenderd wordt terwijl hier wel hardware-support voor is. Maar voor ICS zou die 'full acceleration support' er wel moeten komen.

Reden dat Tizen kiest voor de EFL-toolkit, die in principe alles wat gerenderd wordt via OpenGL (hardware dus) laat lopen.

[Reactie gewijzigd door kidde op 23 juli 2024 23:56]

ja, dualcore was óók al beter voor accu
in praktijk merk je bitter weinig van
tien uurtje max bij veel gebruikt.
Een beetje jammer slot aan het artikel. Er zijn geen goede benchmarks (want nog geen telefoons) en dus blijven de echte conclusies uit. Waarom niet gewoon gewacht tot na het WMC zodat er veel meer hardere feiten zijn?
Een beetje jammer slot aan het artikel. Er zijn geen goede benchmarks (want nog geen telefoons) en dus blijven de echte conclusies uit. Waarom niet gewoon gewacht tot na het WMC zodat er veel meer hardere feiten zijn?
Benchmarks zijn ook niet alles. Natuurlijk zullen de quadcores sneller zijn dan de meeste dual cores. En dan ga je benchmarks draaien, en dan? Wow, mijn telefoon haalt 1000 punten en die van jou maar 500. En dan? Duren jouw gesprekken ook maar 30 seconden in plaats van 1 minuut? Precies...

Er wordt tegenwoordig voornamelijk gekeken naar de "bij" functionaliteit van een telefoon terwijl de hoofdzaken onderbelicht blijven. Laten we eerlijk zijn: de meeste mensen bellen/smsen langer dan dat ze gamen met hun telefoon. En de meeste telefoons staan toch echt langer in standby dan dat ze worden gebruikt.

En toch: de benchmarks zeggen alles, terwijl belkwaliteit, standby tijd, robuustheid, etc. allemaal nauwelijks aan bod komen. Voor mij is een review dan al bij voorbaat zinloos...
ik ben dat niet met je eens. Volgens mijn telefoon rekening bel ik 100 minuten per maand. Ik weet redelijk zeker dat ik per maand meer tijd bezig ben met browsen, muziek luisteren, mail lezen, filmpjes kijken, gps tracken, spelletjes spelen, gtalken, etc
Dan is de vraag straks: hoeveel minuten win je met een quadcore t.o.v. een dual-core doordat webpagina's sneller laden, de maps sneller zijn ingezoomed etc etc.
Het gaat niet om die fracties van seconden winst die je kunt meten, dat is gewoon een manier om de hogere snelheid te kwantificeren en inzichtelijk te maken. Waar het veel meer om gaat is dat de totale ervaring soepeler wordt en je je minder ergert aan kleine hikjes en wachttijden op je toestel (en ja dat gebeurt ook op een iphone ja, je krijgt alleen ondertussen een mooie animatie te zien). Dit is ook in het artikel besproken, het hakkelen van de interface bij android omdat bv de garbage collection in de weg zit.
Bovendien krijg je gewoon meer mogelijkheden, nieuwe toepassingen die nog meer power nodig hebben.
Het idee dat alles alleen maar in gewonnen tijd uitgedrukt moet worden is een beetje hetzelfde als zeggen dat het onzin is om een BMW te kopen want een panda krijgt je er toch net zo snel op ons wegennet. In die BMW zit je echter toch wel wat lekkerder en als je een keer wel het gas in kan trappen is dat ook leuk (ook al trek je daar je tank/batterij sneller mee leeg).
Volgens mij zal ik niet de enige zijn waarbij het bellen juist de bij-activiteit is. Volgens droidstats bel ik iets tussen de 30 en 60 minuten per maand (inkomend en uitgaand).
Browsen, mailen, youtube etc, doe ik heel wat uurtjes per week. Als ik er meer mee zou bellen dan internetten, had ik wel een nokia gekocht. Voor mij, in ieder geval, is de belfunctionaliteit borderline optioneel. Tis dat andere mensen van me verwachten dat ik bereikbaar ben, maar ik zou prima zonder kunnen.

[Reactie gewijzigd door sab op 23 juli 2024 23:56]

Vind ik niet. Bellen is volgens mij allang geen hoofdzaak meer, hoe raar het misschien ook klinkt. Eigenlijk is smartphone een beetje verkeerde naam, het is meer een personal communication device geworden, o.i.d. Bij mij voeren internet, radio en apps als bijv. whatsapp de hoofdmoot, niet het bellen, dat is maar 200 minuten per maand.
[...]


Benchmarks zijn ook niet alles. Natuurlijk zullen de quadcores sneller zijn dan de meeste dual cores. En dan ga je benchmarks draaien, en dan? Wow, mijn telefoon haalt 1000 punten en die van jou maar 500. En dan? Duren jouw gesprekken ook maar 30 seconden in plaats van 1 minuut? Precies...

Er wordt tegenwoordig voornamelijk gekeken naar de "bij" functionaliteit van een telefoon terwijl de hoofdzaken onderbelicht blijven. Laten we eerlijk zijn: de meeste mensen bellen/smsen langer dan dat ze gamen met hun telefoon. En de meeste telefoons staan toch echt langer in standby dan dat ze worden gebruikt.

En toch: de benchmarks zeggen alles, terwijl belkwaliteit, standby tijd, robuustheid, etc. allemaal nauwelijks aan bod komen. Voor mij is een review dan al bij voorbaat zinloos...
Gaat hier niet om een telefoon, maar om een smartphone, daar draait alles nu juist om de functionaliteit rond om het bellen, anders had je gelijk gehad, maar nu is het behoorlijk misplaatst in dit topic. Velen die dit soort smartphones kopen zullen meer en deel van de tijd dat ze de telefoon gebruiken niet eens aan bellen zijn maar hele andere dingen ermee aan doen zijn. Dit soort top telefoons bellen allemaal prima, als een telefoon van 20 euro al prima belt kan je het met betere componenten niet veel verklote, ik ken geen smartphone waar de belfunctie niet goed was. Stand-by tijd word nu juist wel veel getest bijna elke telefoon test heeft er wel stand-by test bij zitten, maar ook meestal onder load.

Net als je gaat zeuren op Ferrari forum dat ze zo dom zijn en dat ze toch niet harder dan 120 mogen rijden dus waarom geen mini of een stationwagen met 1.2L motor die haalt de 120 ook wel. Zo moet je ook niet in smartphone review gaan zeuren dat ze nu juist de smartphone functie eruit lichten en de standaard belfunctie die al jaren prima is even wat naar achteren schuiven.

[Reactie gewijzigd door mad_max234 op 23 juli 2024 23:56]

Laten we eerlijk zijn: de meeste mensen bellen/smsen langer dan dat ze gamen met hun telefoon. En de meeste telefoons staan toch echt langer in standby dan dat ze worden gebruikt.
ik weet zeker dat ik meer game dat sms/bel met mijn telefoon hoor
tweakers kennende komt er dan vast nog een artikel!

Ik vind het juist een goed slot van het artikel. Je krijgt gewoon goede info nu. Nog niet alles maar dat komt omdat er nog geen quadcore telefoons zijn.
Gewoon nog even geduld hebben tot de eerste telefoons er zijn.

dan komen ze vast met een artikel waarin alles vergeleken wordt
dat was ook het eerste wat ik dacht. Beetje lekker maken met niks :+

zit met smart te wachten iig!
De functionele toegevoegde waarde voor quadcores in telefoons, vooral Android, zijn de aansluitmogelijkheden op een HDTV en een (bluetooth) toetsenbord.

Zeker voor mensen die mobiliteit nodig hebben. Verslagen schrijven op een mobiel(tje) via een toetsenbord is dan een pre, en dan heb je natuurlijk wel ruwe snelheid nodig.

Laptops gaan snel overbodig worden. Netbooks zijn dat al.
Voordat laptops overbodig worden, moet er eerst een volwaardig OS komen. IOS en android zijn dat nog niet, misschien kan windows 8 (mobile?) dat worden....
Google is druk aan het prutsen met ChromeOS schijnt, eerst brengen ze de Chrome browser op Android uit en dan mogelijk dat ze zoveel mogelijk naar die browser verplaatsen.

"Windows On ARM" 8 lijkt me toch een beetje 'kreupel' te zijn, aangezien de naam "Windows" doet vermoeden dat je er alles op kan wat je op een Windows PC kan doen, maar dat gaat absoluut niet het geval zijn. Daarom ben ik bang, dat vele klanten hevig teleur gesteld gaan worden door WOA: Alle 'oude' Windows-applicaties draaien er immers niet op.

Allicht doet Ubuntu nog een gooi, maar die zijn vergeleken met de concurrentie toch een beetje ondergefinancierd.

Samen met Tizen, WebOS en BlackBerry-OS geeft dat inderdaad -precies zoals u zegt - een hele hoop 'net-niet'-ervaringen: genoeg om die laptops nog even in de schappen bij de MediaMarkt te houden.
Aansluiten op een HDTV is alweer een gepasseerd station nu elke moderne TV DLNA ondersteunt. Je pusht de video stream direct van telefoon naar TV over wifi.
Naja, waarom zou je dat uberhaupt willen als je TV zelf gewoon een keyboard en internet zal hebben. En binnenkort (paar maanden) kan dat op iedere bestaande HDMI-TV met zo'n HDMI-dongeltje.

Dus idd: Waarschijnlijk alleen nog maar om je foto's / filmpjes van de smartfoon af te spelen.

[Reactie gewijzigd door kidde op 23 juli 2024 23:56]

Laptops gaan snel overbodig worden. Netbooks zijn dat al.
Laptops zullen nooit overbodig worden, zeker zakelijk gezien niet. Een smartphone is meer voor erbij dan als vervanger van een laptop. En een verslag typen op een touchscreen is nog steeds erg lastig. Al worden tablets steeds meer gebruikt in vergaderingen, verdwijnen zullen laptops nooit (denk ook aan de toename van ultrabooks).
Laptops zullen never nooit overbodig worden zolang Android 0,0 gebruiktmaakt van de ruwe power die de quad-cores leveren.

Ik zie laptops juist een langer leven in de vorm van een hybrid ultrabook met touchfunctionaliteit (tabbook).
Je hoort mensen dat ook altijd zeggen met PC's dat een Quad core een overkill is, maar ik ben het daar niet mee eens want een Quad core kan meer taken tegelijk afhandelen dan een dual core.
Dat is juist, maar hoeveel mensen maken nu echt gebruik van de rauwe rekenkracht van een quadcore? Heb je die in een simpele officemachine (waar de meeste mensen op werken) nodig? Of volstaat een core2duo voor word en excel, en een beetje surfen, ook?

Is het dan overkill? Ik ben het met je eens; voor de mensen die er écht gebruik van maken, is het natuurlijk prachtig, echter dat is een minderheid. In de meeste gevallen betreft het bragging-rights.. Wie heeft de langste...
Ik verwacht dat hier de wet op de verminderde meeropbrengst zal gelden. Het effect van single core naar dial-core zal vele malen groter zijn dan dat van dual-core naar quad-core (dat is slechts mijn inschatting). Waar we misschien nog het meeste van gaan merken in real-life is die kleine buitenboord-processor, dat zou aardig moeten besparen. Om het allemaal maar wat te relativeren: als ik op mijn android phone of tablet thet energieverbruik opzoek, gaat >85% naar het display. De energiebesparing zal dus in de resterende 15% moeten gebeuren...
Als dadelijk de windows 8 tablets gaan uitkomen zullen die graag wat brute kracht van de processor gaan eisen. Voor telefoon OS zoals IOS5 en WP7(.5) zie ik nog niet in waar op dit moment de quad core nodig is. Voor android maak ik nu nog een uitzondering na ervaring met sgs met android 2.3, want mijn radar met WP7.5 (1 ghz) loopt vind ik veel vloeiender dan galaxy s (1 ghz). Ik heb nog niet zo veel ervaring met ICS 4.0 en die doet meer met de gpu dan de vorige versies van android en dat zou veel taken van de cpu uit handen horen te nemen.
Slecht nieuws voor u:

"Windows 8 tablets" zoals u het noemt, WOA zoals Microsoft het noemt, is een telefoon OS. En lijkt dus waarschijnlijk een stuk meer op WP7.5 dan op Windows 7.
dat is onjuist:

Windows 8 is voor pc, laptop en tablet. WOA is ook Windows 8 alleen dan met een arm proccessor er in.
MS heeft speciaal voor phones gekozen voor WP7.5.
Ms heeft eerder ook aangegeven dat tablets behoren tot de catogorie PC (het is niet voor niets Tablet-PC).
Er zullen ook tablets met windows 8 gaan komen die op x86 gaan werken. Intel is momenteel druk bezig met haar medfield procesoren voor android. Maar ik zie niet in waarom die niet ook in windows tablet kunnen.
Overigens is het begrip WOA wat ruimer. Er kunnen ook bijvoorbeeld netbooks worden gemaakt op arm.

Op dit item kan niet meer gereageerd worden.