Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties

ARM heeft de Cortex-A15 MPCore-processorkern aangekondigd, die volgens het bedrijf bij hetzelfde energieverbruik tot vijf keer sneller is dan huidige processors in smartphones. ARM wil met de Cortex-A15 naar andere markten uitbreiden.

ARM Cortex-A15 MPCore rechtsDe nieuwe chipkern van ARM neemt het stokje over van de Cortex-A9 MPCore. De Cortex-A15 MPCore zal, naast toepassing in mobiele apparaten als smartphones en tablets, ook worden gebruikt in wat ARM digital home entertainment noemt. Daarbij moet worden gedacht aan bijvoorbeeld tv's en andere apparaten waarbij streaming media en beeldverwerking om de hoek komen kijken.

Voor smartphones en andere mobiele apparaten wordt de Cortex-A15 tussen 1GHz en 1,5GHz geklokt, en zal deze in zowel single- als dualcore-configuraties worden geïmplementeerd. Voor digital home entertainment wordt het frequentiebereik naar 2GHz opgerekt, terwijl voor dat segment dualcore- en quadcore-soc's zullen worden gebruikt.

Nieuwe markten die ARM met de Cortex-A15 MPCore wil bedienen zijn servers met een laag energieverbruik voor onder meer cloudcomputing en hardware voor draadloze infrastructuur. Opdat de nieuwe chipkern hiervoor in aanmerking komt, heeft ARM hem voorzien van hardwarematige virtualisatieondersteuning en kan de Cortex-A15 tot 1TB geheugen adresseren.

Voor servers voorziet ARM kloksnelheden tussen 1,5GHz en 2,5GHz, terwijl een quadcore daarvoor de meest logische keuze is. Voor toepassing in netwerkinfrastructuur wordt aan dezelfde frequenties als bij de serverchips gedacht, maar ARM denkt dat de Cortex-A15 daarvoor ook in hexacore-configuraties of meer zal worden gebruikt. Smp wordt gebruikt om maximaal vier Cortex-A15-kernen met elkaar te verbinden, terwijl voor een chip met acht kernen twee clusters van vier Cortex-A15-kernen via de AMBA4-interface aan elkaar worden gekoppeld.

De Cortex-A15-kern is verder voorzien van technologie als Thumb2 voor codereductie, TrustZone voor beveiligingstoepassingen en drm, een NEON-dsp voor verwerking van beeld en geluid, een fpu en een Jazelle-eenheid voor het versnellen van onder meer Java-applicaties.

De nieuwe chipkern van ARM is geschikt voor productie op 32nm en 28nm, en er wordt gewerkt aan een 20nm-procedé-ontwerp. De L1-cache heeft 32Kb voor instructies en eenzelfde hoeveelheid voor data, terwijl tot 4MB L3-cache mogelijk is. De Cortex-A15 kan maximaal drie instructies per klokcyclus verwerken, terwijl zich maximaal acht instructies tegelijk in de pipelines kunnen ophouden. Om energie te besparen, kan de chipkern niet alleen delen van de chip die niet worden gebruikt uitschakelen, maar zelfs delen van de pipeline.

ARM Cortex-A15 MPCore

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (65)

Opmerkelijk.

Thumb2 is een methode om codesize te reduceren. Nuttig als je code in 16 MB flash moet. Zinloos in servers waar een gigabyte RAM in zit.

Jzaelle is een Java technologie die alleen door ARM's JVM ondersteund wordt. Elke moderne JVM met JIT is significant sneller. Op moderne ARM chips is dit volledig geemuleerd; hardware is zo goed als niet meer aanwezig.

Afwezig in het ontwerp is de memory controller, terwijl die in alle moderne x86 op de CPU die is opgenomen. Juist voor ARM designs zou dat zinnig zijn; die zijn nogal eens geoptimaliseerd voor low chip count designs. GPU integratie is bijvoorbeeld al heel gangbaar bij de huidige Cortex licensees. Zo hebben alle SnapDragons een AMD Z340 GPU on die.

Andere zaken zijn logischer. TrustZone is nuttig voor DRM clients, zoals desktop PCs en tablets. Op de server is het praktisch zinloos. Neon is een goed alternatief voor SSE.
U ziet het nogal verkeerd: Natuurlijk zit de memory controller nooit in de CPU! Zowel niet bij ARM als x86.

Een CPU moet namelijk dingen uitrekenen, een memory controller geheugen aansturen. Een GPU zit toch ook nooit in de CPU?

Wat wel kan, is de memory controller / GPU op hetzelfde stuk sillicium stoppen als waar de CPU op zit. Maar, dan is het natuurlijk geen CPU meer, maar een apu (AMD naamgeving) of SoC (doorgaans bij ARM).

Intel en AMD zijn niet zo goed in veel functies op een stuk sillicium duwen, logisch dat dan de foutieve perceptie kan ontstaan dat de memory controller op de CPU zit, want hun plak sillicium doet niet veel meer dan 'CPU zijn'.

Echter, degenen die een ARM CPU op een stuk sillicium duwen, doen daar rustig nog 10 functies bij, waarvan de memory controller er slechts 1 is.

http://focus.ti.com/en/graphics/wtbu/OMAP4430_zoom.jpg

Logisch echter, dat als ARM ontwerpen voor CPU's maakt, ze daar geen "memory controller" instoppen, want dan is het natuurlijk geen CPU meer.
ik ga het steeds jammerder vinden dat Windows niet op deze proc draait. Jammer dat MS destijds de stekker uit het programma van meerdere processoren heeft getrokken.
Het is natuurlijk de vraag, Microsoft kennende, wat ze doen als de markt voor deze CPU's groot gaat worden en vanuit OS oogpunt min of meer Linux only...

Met Windows CE hebben ze voldoende ARM ervaring om alsnog te besluiten om Windows te porten. Het moet alleen business-wise wat opbrengen voordat ze dat gaan overwegen / doen...
http://tweakers.net/nieuws/68740/microsoft-neemt-licentie-op-arm-architectuur.html
http://tweakers.net/nieuw...or-arm-tablets-maken.html

Waarschijnlijker is dat ze speciale OS's maken voor ARM gebaseerde toepassingen, zoals zune, handhelds, TV,s, ... maar geen echte windows 7 of opvolgers variant.

@singularity: ARM bied ontwerpen van processoren aan , oorspronkelijk enkel voor de mobile space. Nu hebben ze 99% van die markt in handen. In secundaire markten boeren ze goed vooruitgang. (general purpose micro processoren voor harde schijven, portable devices, tvs, setop boxes, automotive, ....)
ARM's gebied en intel's gebied overlapten niet en beiden domineren ze hun gebied. Echter met netbooks, MID en smartphones, komen de gebieden naar elkaar toe. Maar ze zijn nog net niet overlappend.

In theorie zou je windows kunnen op een A15 draaien, maar
1) A15 is er nog niet
2) windows moet deels herschreven worden voor de ARM ipv x86 instructieset
3) windows moet stoppen met resources te vreten (lichte linuxen draaien al op een A8)
Das veel moeite voor MS. MS en intel zijn stevig getrouwd (of waarom de x86-windows tandem de markt domineerd) en intel vind concurrentie van ARM niet leuk.

[Reactie gewijzigd door Punkie op 9 september 2010 15:16]

Maar ik wil windows op zo'n ding kunnen draaien! Zoiets zet de markt op z'n kop. ARM zou inmiddels toch wel groot genoeg moeten zijn om met de jongens van AMD en Intel te concurreren in hun eigen vakgebied?
Desktop is een vechtmarkt met neergaande verkopen en nauwe marges. Mobiel zit een premium op en heeft de toekomst.
Het probleem is dan weer wel dat je wel een MS-Windows (gebaseerd op de NT-kernel) kunt hebben die op een ARM-processor werkt, maar daar heb je niet veel aan als er geen software voor is.

Alle bestaande Win32-software is nu eenmaal x86-only...
Alle bestaande Win32-software is nu eenmaal x86-only...
Kun je nagaan dat Windows ook 2GL code in de source heeft blijkbaar. Dit wordt specifiek op 1 processorarchitectuur geschreven... bij een OS moet dit helaas, omdat het OS met de architectuur moet communiceren en dit moet onderhouden. Het OS moet de architectuur dus kennen. Windows op een ARM platform moet voor een groot deel herschreven worden. Met name het systeemprogramma-gedeelte.
Windows is voor meer 99% in C geschreven. Bij de conversie naar 64 bit is er ook weer naar veel software nagekeken op platform afhangelijkheid. windows kan ook op itanium draaien en in het verleden is het ook geport naar Alpha.


Dus windows zelf is niet vreselijk moeilijk te porten naar een ander eprocessor achitectuur. Ook specialistische software is op andere platformen te krijgen, en anders is er nog .NET om platform onafhankelijk te werken.

Je hebt wel niet de HELE grote set software als voor win32, maar die heb je voor linux ook niet.

@Augmentor, om win32 software te draaien heb je emulatie ondersteuning nodig, virtalisatie is enkel bedoeld om een server chip op te delen in meerdere virtuele chips, niet om software van een andere CPU te emuleren.

PS, windows CE draait al op ARM he?
Je hebt wel niet de HELE grote set software als voor win32, maar die heb je voor linux ook niet.
~99% van de software wel. Linux software wordt, indien open source, met portability in mind geschreven. Jaren geleden is er al aan portability gewerkt, met name de amd64 port. Maar van oudsher is het multi-platform geweest en gebleven, ook voor het publiek.

Ter vergelijking:

ftp://ftp.nl.debian.org/d...binary-armel/Packages.bz2 is 4926 KB
ftp://ftp.nl.debian.org/d.../binary-i386/Packages.bz2 is 5073 KB
ftp://ftp.nl.debian.org/d...binary-amd64/Packages.bz2 is 5029 KB

Het enige probleem is wat proprietary x86-32 pakketen. Die kun je op een x86-64 wel draaien, maar op een Linux/ARM niet (tenzij je een x86-32 gaat emuleren). Dus, een (dikke) Linux/ARM server is zo opgezet.

Het probleem bij Linux/ARM is dat het embedded toepassingen zijn, voor een specifiek doel. Dan heb je aan heel veel software niet zoveel. Bijvoorbeeld allerlei PC software gaat uit van een keyboard, muis, en 1024x768+ resolutie.
Windows is voor meer 99% in C geschreven. Bij de conversie naar 64 bit is er ook weer naar veel software nagekeken op platform afhankelijkheid. windows kan ook op itanium draaien en in het verleden is het ook geport naar Alpha.
Dit is C, en geen C++. Voor de bootsector, BIOS-communicatie, hardware abstraction layer en kernel, is kennis van de CPU en de vastliggende I/O-adressen en geheugenadressen benodigd. In C kun je bijvoorbeeld directe registers of directe geheugenadressen aanspreken (soort peek en poke principe). Wil je dit voorkomen in je code, dan moet je een hele geavanceerde compiler hebben die predefined basislaag-instructies in 3GL vertaald naar de gewenste architectuur. Aangezien ARM andere memory en I/O standaarden heeft, wordt dit lastig. Een ARM-bios is behoorlijk anders dan een x86-bios.
.net software is hardware onafhankelijk. Daarnaast werkt software die netjes de windows api gebruikt ook onder wine of op den itanium (na hercompilatie) je hebt het dus over games en verouderde programmatuur.
En daarom komt ook de ingebouwde virtualisatie-ondersteuning van pas
Heel veel open source software kan probleemloos gecompileerd worden voor de ARM. Als je kan leven met Linux, kan je vast ook leven met MS Windows op een ARM, als het ooit zo ver komt.
Als je je software platform onafhankelijk schrijft, of zelfs open source maakt, is een ARM port gemakkelijker. Stel je maakt gebruik van Qt. Je kunt je software dan eenvoudig naar diverse platformen porten onafhankelijk van OS of architectuur.

Tweede zaak is dat applicaties voor een bepaalde UI zijn geschreven. Zo zul je bijvoorbeeld de UI van Mozilla Firefox niet op een mobiele telefoon kunnen gebruiken ongeacht de betreffende OS of platform. Daar zijn grove aanpassingen voor nodig, aanpassingen die elke Windows applicatie zou moeten ondergaan.

Heeft tot gevolg dat vrijwel alle Windows x86-32 desktop applicaties nutteloos zijn voor een tablet met bijvoorbeeld 800x480 welke Linux/ARM draait. Of een Linux/ARM server. Het is dus logischer een OS te kiezen welke portability eenvoudiger maakt, en een voorbeeld daarvan is Linux. Gezien er geen Windows/ARM software bestaat, laat staan het platform, en Windows gebruikt wordt ivm backwards compatibility en softwareaanbod, is dat een logische keus.
[...] wat ze doen als de markt voor deze CPU's groot gaat worden en vanuit OS oogpunt min of meer Linux only.. [...]
Windows is alleen nog sterk in de desktop markt. Terwijl de trend van (dedicated) embedded systemen, onvermoeid groeit.
Je TV/setup boxes, Je thuis router, de digitale NS informatie borden, Auto navigatie en entertainment, Smart phones. Deze markt is veel groter dat Desktops systemen. Terwijl daar ook de trend is om Windows Alleen nog maar virtueel te draaien. met bijvoorbeeld Embedded linux als Baremetal hypervisor.
Ik begrijp uit al deze reacties dat de kans niet aanwezig is dat ARM zijn processors naar de desktopmarkt brengt? Je zou zeggen dat ze met een 20nm productieproces in sommige opzichten voorlopen op AMD en Intel. Ze zullen alleen nog niet gebouwd zijn voor x86, of zie ik het helemaal verkeerd?
ARM brengt zelf geen hardware platformen ofzo uit, andere bedrijven zoals samsung kopen een licentie, zetten er hardware rond, schrijven er software voor, en hopla, je hebt je gsm of netbook. Waarop dan een linux variant op draait. Het probleem is windows er op draaien, want dat ligt in het kamp van Microsoft. Microsoft zal eerste een windows for ARM moeten uitbrengen.
Maar het is zeker mogelijk dat een fabrikant een moederbord maakt met een ARM processor op die voldoet aan de ATX vormfactor, en met alle slots en dergelijke om PCI-kaarten, harde schijven enz op aan te sluiten. Dan zou er eerst toch al linux relatief simpel op kunnen draaien.
echter is het maar de vraag of je dat moet willen, x86 is wellicht niet het meest optimale maar wel een van de krachtigste architecturen voor zover ik heb begrepen,

zelfs als je een quadcore arm 2ghz cpu zou nemen zou je doorgaan waarschijnlijk ongelofelijk veel moeite hebben om er een desktop op te draaien.

voor specialistische en doorgaans niet al te ingewikkelde taken is het veel beter geschikt,
een simpel osje en wat hardware aansturen is niet zo ongelofelijk moeilijk, maar een volwaardige desktop wordt al moeilijker,

misschien zul je gaan zien dat er mediacenter oplossingen komen zoals die zotac's uit de review. met een dualcore ARM in plaats van een Atom. maar veel verder zal het voorlopig niet komen.

er zijn heel wat mensen die x86 liever zouden zien uitsterven, al verwacht ik dat ARM niet voor die doodsteek zal zorgen, evenmin als welke andere op dit moment gekende architectuur vrees ik.
Leuk, altijd dat "ik weet er niks van, maar ik gok maar wat". Er draaide al een desktop op een ARM processor op een paar MHz medio jaren 80. Zoek eens op "RISC OS".

Verder, je kan GHz niet vergelijken over diverse processormodellen.
Zie bijvoorbeeld: http://www.youtube.com/wa...W6lVQl3QA&feature=related

En sinds je vrees voornamelijk gevoed wordt door onkunde, zou ik er niet wakker van liggen. De ARM processor is al jaren bezig met een stevige opmars, en het zou mij niet verbazen dat als cloud computing meer doorbreekt, en de GPU meer te doen krijgt, de CPU gewoon een ARM kan zijn, probleemloos.

RISC OS was meer dan 20 jaar terug al een prima te gebruiken desktop omgeving, toen nog op een 8 MHz ARM 2 processor. Verder kan je prima op een recentere ARM processor Linux draaien, zie: http://www.youtube.com/watch?v=iEovlXFKm84
Precies.

Ik had toen een een Archimedes computer die op een ARM (ARM4?) draaide. Die rende rondjes om de toenmalige PC heen voor alle taken. Die is uiteindelijk kapot gegaan, de harddisk ging stuk en was niet meer te krijgen (ST506 interface).
Heb nu nog steeds een andere RISC-OS computer staan, een Iyonix. Werkt super snel kwa desktop, alleen met reken-intensive taken merk je dat de CPU minder krachtig is dan een gewone PC.

Nu kan je RISC-OS draaien op een Beagle-Board, goedkoop en 2 keer sneller dan de Iyonix.
Heh, dat was er al een tijdje, sterker gestopt in 2008. En ja, daar kan je gewoon Linux op draaien, zie o.a.: http://www.iyonix.com/linux.html
ARM processors hebben al heel wat jaartjes in desktop systemen gezeten. Tot ergens in 2008 kon je nog gewoon een desktop kopen met een ARM (compatible XScale) processor er in.
BSD draait op arm. Evenals Linux kernel gebaseerde distro's zoals android. Windows CE dacht ik ook?

Als er voldoende markt is gaan er voldoende applicaties geport worden.

De consument kan wel het verschil tussen een beperkt aantal logos onderscheiden voor groepen arch/os combinaties.
Toch knappe processoren:

As an EETimes article points out, "ARM set up both systems to run the same operating system, the same browser and put them on the same high-speed corporate network and checked for responsiveness to the end-user. The Intel-based netbook seemed to beat the development board to display different websites most times, but not by very much. When it is considered that the netbook has a graphics processing unit and the development board does not, that is surprising result. Even more notable is that the Intel-based netbook is running at 1.6-GHz clock frequency the dual-core Cortex-A9 development is running at 500-MHz."

En de nieuwe versie is nog veel krachtiger, dit is echt een interessante ontwikkeling.
Beetje raar verhaal. Hoe kan je iets op een beeldscherm toveren zonder een graphics processing unit? Al is het dan geen krachtige GPU (dat is de intel ook niet), je hebt toch enige vorm van grafische processor nodig om een beeld op te bouwen en een beeldscherm aan te sturen.


Tevens staat er niet bij waar de A15 mee vergeleken is. Er staat "huidige smartphones", de huidige smartphones gebruiken veelal een Cortex A8 (of snapdragon) of zelfs nog een ARM11...

5x sneller als een ARM11 is niet indrukwekkend, 5x sneller als een Cortex A8 gaat al de goede kant op, 5x sneller als de A9 is fantastisch, maar gezien er nog geen smartphones met A9 zijn is dit onwaarschijnlijk.

@Mijzelf - Een rasterizer en dergelijke zijn toch wel heel handig om in hardware te hebben. Natuurlijk kan je een hoop in software doen, maar dat kost doorgaans een flinke berg CPU kracht, helemaal als je complexe visuele effecten in je interface gebruikt.
Daarom zeg ik om deze reden ook "videochip" (zoals die uit de jaren 80/90 ipv GPU.

[Reactie gewijzigd door knirfie244 op 9 september 2010 12:41]

Al is het dan geen krachtige GPU (dat is de intel ook niet), je hebt toch enige vorm van grafische processor nodig om een beeld op te bouwen en een beeldscherm aan te sturen.
Hangt natuurlijk van je definitie van een GPU af. In principe is een RAMDAC voldoende, en bij een digitale monitor heb je zelfs dat niet nodig.
Inderdaad, gewoon een poort van de ARM processor gebruiken om het beeldscherm aan te sturen, voor de rest is het gewoon software. Nu ja, moet je de resultaten ook met een korreltje zout nemen, want als ik het goed begrijp zijn deze testen door ARM gedaan. Maar het zijn wel zowiezo prachtige processoren.
Grappig. De a9 is dual core, de meeste atoms in netbooks zijn single core. ook gebruiken webbrowsers nauwelijks de gpu voor hardware versnelling. Dat gaat echter veranderen.

De vergelijking dus een beetje gezocht. Ook omdat als deze chip uitkomt intel ook een stuk verder is..
het opbouwen van beeld door de window manager wordt toch al vaak aan een GPU overgelaten hoe krachttig de gpu is maakt dan verder niet zo heel veel uit, wat dit sugereerd is dat een 500mhz dualcore referentie-model van de A15 niet volledig op z'n bek gaat tegen een intel atom Met gpu hulp, en dat tegen alle redelijkheid in,

je moet daarmee bijv rekening houden dat een arm chip heel wat minder stroom gebruikt dan welke atom dan ook, te suggereren dat intel tegen die tijd wel weer iets nieuws heeft waardoor deze chip teniet word gedaan is naar mijn idee voorbarig gesteld, het valt nog maar te bezien,

op bepaalde terreinen is arm echt hard aan de weg aan het timmeren en het zou me zeker niet verbazen dat het een cpu wordt waar terdege rekening mee gehouden zal moeten worden,
voor Intel en AMD zal dat nog wel te overleven zijn maar Via kan het waarschijnlijk wel schudden.
Dit heet puur vooruitgang. Of het nodig is? Altijd! Of je het als consument nodig hebt? nu nog niet, waarschijnlijk de aankomende jaren wel.

Eigenlijk is de hardware allemaal leuk en aardig, maar waar het om draaid is hoe de software met de hardware (resources) omgaat.

Als je nu kijkt naar de iPad. Het is een 1GHz met maar 128 mb geheugen. Niet erg veel, zelfs niet naar maatstaven van een jaar geleden! En toch werkt de iPad vloeiend genoeg om je nergens aan te ergeren. (nah alleen de switch naar het zoekscherm. Dat gaat elke keer iets met een hapering).

Het steeds maar meer en snellere cpu's nodig hebben is eigenlijk een windows denkbeeld. Elke keer als er een nieuwe versie van windows in de schappen ligt heb je weer een snellere machine nodig om het fatsoenlijk te kunnen draaien. Als ik kijk hoe mijn 4 jaar oude (high-ens) pc op linux, rondjes draaid rond mijn half jaar oude (all-round) pc met windows 7, tja...

Dan wordt het pas duidelijk hoe belangrijk goede software is.

Ik ben benieuwd in hoe verre Android afhankelijk is van hardware. En dan bedoel ik: wanneer heb je genoeg. (ik kan niet wachten totdat iemand zegt: je hebt nooit genoeg).

Een jaar of 6 a 7 geleden moest je elke 2 jaar zo ongeveer wel een nieuwe pc hebben omdat zelfs gewoon windows xp te traag werd/is. Tegenwoordig kun je zonder problemen 4 jaar met een pc doen. De snelheid van de normale familie pc's zijn nu dusdanig dat je al je dingen die je erop doet zonder problemen kunt uitvoeren. Daarom zul je tegenwoordig eerder een nieuwe pc aanschaffen omdat je oude stuk is, dan omdat hij te traag is. (de snelheid winst is nu niet meer zo merkbaar als vroeger, bij dagelijks gebruik)

Stel dat de iPad nu met een 2 GHz processor zuo zijn uitgekomen. Wat wordt er dan sneller? Het opstarten? iBooks, iPod en Safari starten allemaal al binnen een halve seconde op...

OK nu ik dit getyped hebt schieten me natuurlijk dingen te binnen die kunnen profiteren van deze vooruitgang. Een tablet met een docking station, waar je je beeldscherm, HDD, toetsenbord/muis en lan op aansluit. En met dezelfde hardware van je tablet kun je nu thuis al je 1080p video bewerken, je 20mp RAW foto's snel bewerken enz enz enz. Ben je klaar? Je trekt je tablet uit je dock en gaat naar je werk, alwaar je je collega's laat genieten van je video's.

Deze vooruitgang zal uiteindelijk de notebook overbodig maken (denk aan de asus waar het toetsenbord aan het docking station vast zit (computex 2010)) en je desktop verdwijnt...
Wat een onzin, iOS loopt misschien wat achter kwa hardware-honger (is positief :)) maar ook daar vind je elk jaar weer een sneller model van de iPod/iPhone en binnenkort iPad... Ook daar vraagt de software steeds meer, misschien in een ander tempo als Windows, maar er gebeurt exact hetzelfde de hardware wordt uitgebreider en vraagt meer kracht = betere hardware nodig...

Vergeet ook niet dat Windows 7 een stuk minder resources nodig heeft als Vista... En niet eens gek veel meer dan een bak waar XP goed op kan draaien :)

Draai Win 7 thuis op een Pentium M @ 1.6Ghz met 512MB geheugen en een Ati 9600M kaartje met 64MB geheugen er op (laptop van 4+ jaar oud).... Enkel vraagt het veel meer HDD ruimte dat wel...

[Reactie gewijzigd door watercoolertje op 9 september 2010 12:57]

ik denk zelfs dat mobiele telefoons allround pcs worden naarmate ze krachtiger worden, gewoon in een dock stoppen en gaan.
Een iPad heeft 256 mb ram, niet 128.
je hebt gelijk. mijn fout.
Het steeds maar meer en snellere cpu's nodig hebben is eigenlijk een windows denkbeeld. Elke keer als er een nieuwe versie van windows in de schappen ligt heb je weer een snellere machine nodig om het fatsoenlijk te kunnen draaien. Als ik kijk hoe mijn 4 jaar oude (high-ens) pc op linux, rondjes draaid rond mijn half jaar oude (all-round) pc met windows 7, tja...
Vette onzin, je hebt snellere systemen voornamelijk nodig voor de games. Win7 draait prima op trage Netbook hardware en wordt zo verkocht.

Ook ben ik tegen het idee dat het OS geen gebruik zou mogen maken van de systeem resources waar je voor betaald hebt. Windows ziet er steeds mooier uit en wordt steeds beter, en uitteraard kost dat meer resources, en uiteraard is dat geen probleem aangezien hardware steeds goedkoper wordt.

Die vergelijking Linux<>Windows raakt kant nog wal. Wat draai je d'r op? RedHat 5.1? En je draait Win7 met een geintegreerde videochip? Lekker eerlijke vergelijking!
Ik draai zelf Ubuntu netbook 10.04 op mn Acer aspire one, maar na 6 maanden is het beduidend trager dan WinXP (nLite custom). Ubuntu 10.04 op de desktop is -ik zou zeggen- even snel als Win7, maar het start wel sneller.
Hah, apparaten met een Cortex A9 moeten nog verschijnen en ze komen al met de opvolger...
Hah, apparaten met een Cortex A9 moeten nog verschijnen en ze komen al met de opvolger...
Ten eerste de Cortex-A9 wordt al geproduceerd, terwijl deze nog in ontwikkeling. En deze ARM processor richt zich ook op servers.
Nieuwe markten die ARM met de Cortex-A15 MPCore wil bedienen zijn servers met een laag energieverbruik voor onder meer cloudcomputing en hardware voor draadloze infrastructuur. Opdat de nieuwe chipkern hiervoor in aanmerking komt, heeft ARM hem voorzien van hardwarematige virtualisatieondersteuning en kan de Cortex-A15 tot 1TB geheugen adresseren.
Een A9 gebaseerde soc is nog niet in productie (in silicium) tenzij je engineering samples bedoelt. Tegra 2 en samsung orion chips staan geplant als ten vroegste dit jaareinde.

@worldcitizen: dit zijn alleen maar aangekondigde produkten, nog geen die in massaproduktie zijn. Engineering samples dus.

[Reactie gewijzigd door Punkie op 9 september 2010 19:48]

Een A9 gebaseerde soc is nog niet in productie (in silicium) tenzij je engineering samples bedoelt. Tegra 2 en samsung orion chips staan geplant als ten vroegste dit jaareinde.
Waar draaien deze op, op gebakken lucht?

nieuws: Hannspree komt met 10"-tablet op IFA
nieuws: IFA: Toshiba kondigt Android-tablet met 10,1"-scherm aan
Hoeveel jaar nog voordat ARM Intel voorbij gaat ? Zodra dat gebeurt zie ik b.v. een Apple heel snel overstappen naar ARM, Ze ontwerpen nu al hun eigen ARM SoC's voor de iPhone en iPad, en met een veel betere power consumptie en warmteproductie dan intel dan lijkt me dit een perfecte ontwikkeling om superdunne iMac's en MacBooks te maken.
Ik zie niks in het artikel over concurreren met Intel.
Intel komt met Mooestown, waar ik hoge verwachtingen van heb. De ervaring die Intel heeft met Atom en Culv (i3) processoren zijn positief.
Atom's voordeel is prijs, de i-series blinken uit in performance per watt en idle verbruik.
Als ze dat recept kunnen downsizen, hebben ze een troef.
Want wie wil geef lange standbytijd en veel power in huis wanneer nodig?
Als ik dit artikel moet geloven en de A15 5x sneller is als een A9 (de A9 presteert aardig in buurt van de Atom, en wint het kwa performance-per-watt), als deze chip dus 5x sneller is en even zuinig als de A9 dan zal die 4x zo snel zijn als een gelijk geklokte atom met iets lager verbruik... Dan heb ik het wel over de huidige (testbare) Atoms ;)

De combinatie lange standby en veel power is nog nergens te krijgen, ook nog niet bij Intel...

Tenzij moorestown minimaal 4x zo snel gaat worden als de huidige Atom's met gelijk verbruik staat het zeker 1-0 voor ARM met de A15 (mits het klopt wat ze zeggen natuurlijk)...
Moorestown en Medfield zouden wel eens abandonware kunnen worden...
Het slaat totaal niet aan bij zowel de fabrikanten als bij het publiek.
Dit is een hele interessante ontwikkeling.
Want uiteraard zal dit niet alleen in smartphones gebruikt worden.

Maar ook int tablets.
En deze zullen steeds krachtiger worden.
Functioneler.
Meer kunnen en meer functionaliteiten bieden.

Ik vraag me af. Was ARM niet een bedrijf dat ook licenties uitgaf voor het maken van zijn processoren door andere fabrieken?
ARM produceert zelf niets. Het verkoopt haar ontwikkelde technologieeen door aan bedrijven zoals Qualcomm, Samsung en Texas Instruments (dmv licenties natuurlijk)
Ik heb hier geen verstand van maar de cijfers zien er goed en veelbelovend uit.

Maar waar gaat dit heen? 2.5 Ghz in een telefoon?
ik heb dat net in mn laptop als ik me niet vergis.
Kloksnelheden zeggen lang niet alles over prestaties. Het gaat om de gehele architectuur. Vergelijk het met het aantal MegaPixels van een camera. De lens en de sensor zijn daar vele malen belangrijker dan de resolutie. Een 2 MP camera maakt nog altijd betere foto's dan een 10 MP mobiele telefooncamera.
Het meer is beter verhaal wordt meestal aangehaald als marketing verkooptechniek. Al is dat bij processoren tegenwoordig omgeslagen naar meer procs = meer beter.
aaah kijk, bedankt. that atleast made some sense.
Mooi dat de chipjes steeds sneller worden. Langzamerhand gaat de memory interface wel een bottleneck worden, zeker voor servertoepassingen.
Ik ben ook geinteresseerd in het enrgieverbruik van deze chips. ARM's usp is energiezuinige chips. Weet iemand hoeveel Watt deze (gaan) verstoken?
Zal nooit bekend worden vermoedt ik, aangezien de hele boel samen met DSP's, video / audio en/decoders, memory controller en 2D/ 3D GPU op een stuk sillicium gebakken zal worden. Doorgaans wordt alleen het verbruik van heel die "system on chip" gespecificeerd, door degene die de SoC's maken (TI, nVidia, Samsung, FreeScale etc.)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True