Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 56, views: 22.202 •

Intel beweert dat zijn Atom Z2760-soc zuiniger is dan Nvidia's Tegra 3-soc. Het is nogal een heikel punt voor Intel, aangezien de x86-architectuur minder efficiŽnt wordt geacht dan de arm-architectuur, die voor bijna alle soc's in mobiele apparaten wordt gebruikt.

Intel voorzag Anandtech in de mogelijkheid om de claims te bevestigen of te ontkrachten, middels een redelijke ingewikkelde setup waarbij het energieverbruik van twee tablets vrij nauwkeurig gemeten kon worden, op cpu- en gpu-niveau. De energieconsumptie werd uitgelezen aan de hand van de voltage-rails, die de cpu en gpu van energie voorzien. Ook het energieverbruik van alle componenten, inclusief scherm, werd uitgelezen. De tablets in kwestie waren een Acer W510 met de Intel Z2760-soc en een Surface RT met de Nvidia Tegra 3-soc, die respectievelijk Windows 8 en Windows RT draaiden

Intel Z2760 energiemetingen Intel Z2760 energiemetingen Intel Z2760 energiemetingen

Anandtech onderwierp de tablets vervolgens aan een aantal verschillende scenario's, zoals idlen, opstarten maar ook enkele browserbenchmarks. In alle tests verbruikt de Z2760-soc soms de helft van de energie die de Tegra 3-soc nodig heeft. Het verschil in het totale energieverbruik is een stuk kleiner, maar laat wel zien dat een zuinige soc de nodige energiebesparing op kan leveren. Overigens is de bevestiging van Intel's claim tweeledig; zo blijkt dat de x86-architectuur wel degelijk geschikt gemaakt kan worden voor mobiele toepassingen waar een laag energieverbruik belangrijk is. Daar staat tegenover dat de Z2760-soc op 32nm wordt geproduceerd, terwijl Nvidia's Tegra 3-soc nog op 40nm wordt geproduceerd.

Of Intel's Clover Trail-soc het ook op kan nemen tegen Nvidia's Tegra 4-soc, waarvan verwacht wordt dat deze begin januari 2013 wordt aangekondigd, valt nog te bezien. Sowieso werkt de vijfde, energiezuinige kern van de Tegra 3-soc niet in Windows RT.Atom Z2760 energiemeting

Reacties (56)

Dus de meest energiezuinig x86-chip van intel van dit jaar is zuiniger dan de minst energiezuinige ARM chip van vorig jaar. Er is een reden waarom enkel de nieuwere varianten van de tegra 3 in smartphones gebruikt (waar de 5de core wel zijn nut toonde). Aangezien intel ook een beter bakproces heeft (en al langer op een kleiner procťdť zit) is dit hoegenaamd niet impressionant te noemen. Vorig jaar hadden ze gelijkaardige vaststellingen, hun nieuwste procs wonnen van de vorige generatie arm-socs, maar verloren van de nieuwe generatie ARM-socs (die ondertussen ook al eventjes uit zijn).
Acht ja, zoals het nu gaat duwen ze elkaar vooruit. ARM moet wel innoveren of ze hebben intel aan hunne rekker en intel moet proberen de overgang te maken want familiaal gebruik van desktops zie ik meer en meer verdwijnen wat toch wel hun cashcow is.
Exact dezelfde hardware met uitzondering van de soc lijkt me al een uitdaging apart omdat je hier een RISC en een CISC processor hebt, verder ook nog de vraag wat er geÔntegreerd zit in de soc en wat niet, moet je dan de losse componenten om het 'gelijk' te maken ook gaan meetellen?

Ook hetzelfde besturingssysteem gebruiken is hier niet logisch omdat het andere architecturen zijn. Neem je een ARM processor dan heb je gewoon Windows RT, neem je x86 W8. Je zou het eventueel nog wel met Android kunnen doen omdat dat nu werkend is op x86 maar dat is ook niet geheel eerlijk omdat Android in de basis is ontworpen om op ARM te draaien.

Twee tablets naast elkaar leggen die min of meer hetzelfde zijn is een prima test gezien de verschillen, wat ik dan nog wel mis zijn testen van de performance. Iedereen kan (bij wijze van spreken) een zuinige soc maken, maar als die andere twee keer zoveel gebruikt maar tien keer zo snel is,.. nja jullie snappen vast wel wat ik bedoel.

Fijne kerst allemaal

Edit: was bedoeld als reactie op Kordakus

[Reactie gewijzigd door SRI op 25 december 2012 12:04]

Leuke marketing van Intel, maar een Tegra 3 is een energieslurper, zeker wanneer de vijfde kern niet is ingeschakeld. De kernen worden dan teveel gebruikt en het is al gebleken dat dat erg inefficiŽnt gebeurd. Wat Intel hiermee heeft aangetoond is dat ze wellicht een zuinige processor hebben gemaakt die mogelijkerwijs toch niet voldoet op hoog niveau. Een veel betere en meer efficiŽnte processor is de Krait. Zet de Atom daar maar eens tegenop. Ik denk niet dat de vergelijking dan nog in het voordeel van Intel valt. Al met al is het wel degelijk knap, maar de vergelijking blijft wel scheef. Het is scheef om meerdere redenen:
- het procťdť (40 nm Tegra, 32 nm Atom)
- de oudheid - de Tegra is al een jaar uit
- de tablets - een volledig geoptimaliseerde Surface en een Acer. Een objectieve vergelijking zou zorgen dat er een tablet was met Atom en een tablet met precies dezelfde hardware en daarin een Tegra zodat tabletverschillen niet meewegen.
- het besturingssysteem - Windows 8 tegen de RT versie die functionaliteit mist. Wie weet heeft RT een heel ander energiebeheer.
Al met al is het leuk zo'n ingewikkelde set up, maar de vergelijking is gewoonweg (wetenschappelijk gezien) niet valide.
De vergelijking is (wetenschappelijk gezien) zeker wel valide.

Wetenschappelijk gezien is de vergelijking juist heel goed gedaan: methodiek is goed uitgelegd in het artikel en wat er vergeleken is ook; Voor zover ik kan zien is het zo opgezet dat de vergelijking zeer goed na te oen is door een ander en wat er gemeten is is goed vergelijkbaar (3 parameters: systeem wattage, CPU wattage en GPU wattage)

Het gaat op twee momenteel verkrijgbare systemen. Wat dat betreft is het ook een correcte vergelijking. Dat de ene leverancier kiest voor een wat langer verkrijgbare chip dan de ander is de keuze van de leverancier. Het zijn voor beide processor families momenteel courante processors.

Dat Intel zijn sterke punt inzet (procedť) vind ik juist correct. Intel zet zijn beste paard in tegen het paard van de concurrentie. Al met al is het punt van Intel juist dat het beter / concurrerent is ten opzichte van de huidige ARM processors. Dat heeft de vergelijking juist aangetoond.

Omdat Windows RT gebruikt is is eenzelfde vergelijking met bv Android, Linux ook interessant maar misschien niet correct omdat deze producten niet met deze OS-en verkrijgbaar zijn. Technich gezien komt dan het verschil anders uit (gebruik gemaakt van de 5e core OS meer geoptimaliseerd voor ARM ipv meer voor x86 bij Windows (mijn mening btw)).

Dit startschot van Intel geeft in ieder geval aan dat we in 2013 er niet van uit moeten gaan dat ARM Intel simpelweg wegblaast. Dit is ook de conclusie van Anand. Andere vergelijkingen bij microservers geven een veel schevere verhouding aan in het voordeel van ARM qua perf/watt.

Waar ik het mee eens ben is dat de vergelijking wel eens behoorlijk anders kan zijn als de Cortex A15s uit gaan komen komend jaar. De eerste benchmarks bij Phoronix laten zien dat ARM zeker niet uit het veld geslagen wordt en dat steeds meer platfoms toneel kunnen worden van deze titanen strijd.
Sowieso werkt de vijfde, energiezuinige kern van de Tegra 3-soc niet in Windows RT.
Waarom eigenlijk? Want volgens NVIDIA kan het inschakelen van de Companion core door hardware geregeld worden:
Therefore, in order to make the management of the Companion core and main cores totally transparent to the operating system, Kal-El implements both hardware-based and low level software-based management of the Companion core and the main quad CPU cores.
Bron: http://www.nvidia.com/con...egra-whitepaper-0911b.pdf

Ik snap dat je met software nauwkeuriger kunt regelen maar als die software er niet is, moet op z'n minst de hardware toch kunnen besluiten om over te schakelen op de Companion core?
Dit is een prachtige showcase van core power vs platform power. x86 is eigenlijk altijd al aanzienlijk efficiŽnter dan ARM-architecturen, maar alleen als je core power vergeleek. Het verschil zit hem helemaal niet in de processor zelf, maar in alle meuk eromheen. Kijk bijvoorbeeld eens naar eerste-generatie Atoms: Silverthorne verbruikte zelf maar 2,5W op vol vermogen (met ruwweg 50x de performance van een ARM9 tegen 10x het verbruik), maar deze processor werd vervolgens gepaard met een chipset (945GSE) die zelfs als hij uit z'n neus zit te vreten 6,9W verstookt. De chipset is echter wel noodzakelijk, dus hoe efficiŽnt die cores ook rekenen: totale platform power is het ťchte getal waar je mee moet rekenen, en dat was redelijk dramatisch.

Daar tegenover staat dat ARM in zijn SoCs extreem goed presteert qua platform power: LPDDR en eMMC NAND zijn by far de zuinigste interfaces voor RAM resp. opslag, en draagt maar enkele tientallen milliwatts toe aan platform power. In tegenstelling tot DDR2/3 en SATA op x86, wat wel veel snellere, maar ook veel minder zuinige technieken zijn.

Nu heeft Intel eindelijk platform power in de smiezen: ze ondersteunen LPDDR2, eMMC of zelfs directe NAND-interfacing, ze gebruiken een PowerVR grafische oplossing en ze hebben al hun high-performance I/O (bijv. gunning transistor logic, GTL) ingewisseld voor stroombesparende varianten (LVDS/TMDS).

Nog leuker: Atom is ook nog niet eens de efficiŽntste processorcore van Intel, dat is Core. Het kan dus nog veel beter! En dat is exact wat intel met Broadwell wil gaan doen over een jaar of 2. Atom bestaat puur en alleen om die size binnen de perken te houden: het is een goedkope en makkelijke chip om te maken en integreren, maar gaat niet persť het meest efficiŽnt om met zijn resources. Zodra Core naar sub-1W wordt geschaald zullen we pas echt zien wat een voordeel CISC boven RISC heeft.

ARM zit intussen ook niet stil. ARM Cortex-A15 is lang niet meer zo RISC als het vroeger was: het is superscalar, ze hebben inmiddels al hartstikke vaak uitbreidingen aan de instructieset gemaakt, er zit een branch predictor in en zelfs het een en ander aan transactionele buffers en multi-level cache. Als ARM Cortex-A15 RISC mag worden genoemd, was Intel Pentium dat ook, in feite kijk je naar heel erg vergelijkbare architecturele ontwerpbeslissingen. Dus, waar zal het eindigen? Zullen we in de toekomst nog wel RISC processoren in de wereld van consumentenelektronica hebben, of is CISC the way to go?
De hele RISC/CISC discussie is ook al jaren verleden tijd, die wordt alleen nog in flamewars op forums in leven gehouden. Waar Intel inderdaad hele grote stappen heeft gemaakt is de uncore - de cpu architectuur is nog steeds de bejaarde Bonnell.

Maar alsnog is de race nog helemaal niet gelopen. Cortex A15 is weliswaar niet de zuinigste architectuur ooit, maar is wel bloedsnel, en met de integratie van baseband modems is de concurrentie ook verder. Dat moet Intel toch zorgen baren - tegen AMD concurreren is 1 ding, tegen Samsung, nVidia en Apple is het wat anders.

Overigens gaat Core al eerder naar de low-end, dat wordt Silvermont. Alle info die Intel erover heeft losgelaten wijst erop dat het een soort Sandy Bridge-light architectuur gaat worden. Broadwell komt ook wel en ziet er (op papier) schitterend uit, maar dat wordt geen sub-$50 mobile chip.

[Reactie gewijzigd door Dreamvoid op 25 december 2012 12:49]

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBDesktops

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013