Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties

ARM zal binnen een aantal weken nieuwe 64bit-processorontwerpen aankondigen, zo melden anonieme bronnen aan IDG. Met verse 64bit-cpu's zou ARM de vraag naar energiezuinige processors voor servers beter willen bedienen.

ARM LogoDe huidige ARM-architectuur blijft steken op 32bit, al bevat de eerder dit jaar geïntroduceerde Cortex-A15 processorkern 40bit-extensies voor virtualisatietoepassingen. Hierdoor kan een Cortex-A15-processor tot 1TB werkgeheugen adresseren. Op de servermarkt vormen 64bit-processors al geruime tijd de standaard, terwijl ook processors voor de desktopmarkt steeds vaker in combinatie met 64bit-besturingssystemen worden gebruikt.

Omdat ARM wil inspelen op de toenemende vraag naar energiezuinige processors vanuit de lucratieve servermarkt, zal de chipontwerper volgens persbureau IDG op zeer korte termijn - mogelijk al deze week - officieel 64bit-ondersteuning aankondigden. De chipontwerper zou op een technologiebeurs in Taipei achter de schermen al de eerste samples hebben getoond.

De chipontwerper, die aan partnerbedrijven licenties geeft voor het bakken van ARM-chips, heeft tot nu toe nog niets los willen laten over eventuele 64bit-processors op zijn roadmap. De 64bit-architectuur zal vermoedelijk opduiken in een nieuw ontwerp van de ARM Cortex-processorserie. Het is echter niet ondenkbaar dat de huidige Cortex-A15-architectuur al 64bit-instructies kan verwerken, maar dat ARM om marketingtechnische redenen besloten heeft om dit nog niet naar buiten te brengen.

Moderatie-faq Wijzig weergave

Reacties (74)

Ik volg niet helemaal. Ik dacht dat ARM CPUs bouwde voor smartphones en dergelijke. Wat moet ik me voorstellen bij hun serveraanbod? En onder wat voor omstandigheden gebruik je in hemelsnaam 1TB werkgeheugen?
Wat moet ik me voorstellen bij hun serveraanbod?
Marvell Armada XP , o.a. Quadcore @1.6ghz
NuFront 2816 dualcore @2gHz, quadcore in Maart.

TDP voor dualcore's rond 1,5W tijdens videokijken, ondersteuning voor DDR3 / USB2.

Voor niet-rekenintensieve taken, zoals webservers, zou dit een hoop kunnen schelen.

Microsoft is een partner van NuFront en heeft een architectuur licentie voor ARMv7 instructieset, dus kansen zijn aanwezig dat Windows 8 ook op ARM zal draaien.

Volgens geruchten overweegt FaceBook een overstap naar ARM voor datacenters in Oregon.

Als gevolg hiervan zullen vermoedelijk Intel server-processoren goedkoper worden en de winstmarges van Intel dalen.

In Eagle (A15) zal ook virtualisatie zitten, en samen met 64 bit betekent dat een interessante optie voor servers.

Tevens is er de trend tot het 'omhoogbrengen' van nodes per vierkante meter, ook wel bekend als 'physicalization'. Het omgekeerde van virtualisatie, en ARM speelt hier een belangrijke rol. "When less is more: the basics of physicalization" is wat mij betreft het beste artikel over het onderwerp.

Belangrijkste conclusie: Quake III spelen@1.5Watt :)

[Reactie gewijzigd door kidde op 21 november 2010 19:20]

Microsoft is een partner van NuFront en heeft een architectuur licentie voor ARMv7 instructieset, dus kansen zijn aanwezig dat Windows 8 ook op ARM zal draaien.
Dat ze een architectuur licentie hebben zegt eerder dat Microsoft zelf een ARM chip gaat bouwen/ontwerpen dan dat ze Windows op ARM gaan laten draaien, voor het eerste heb je namelijk zo'n licentie nodig en voor het tweede niet.

@kidde:
Dus daaruit besluit dat ze zo'n licentie gekocht hebben om iets te doen waarvoor je zo'n licentie helemaal niet nodig hebt :?

[Reactie gewijzigd door Goderic op 21 november 2010 20:11]

Als ze zelf een ARM chip zouden gaan bouwen, zou het veel goedkoper / efficiŽnter zijn een Cortex-licentie af te nemen net zoals (bijna) iedereen doet; Samsung, Creative, Broadcom, Apple, TI, nVidia, NXP, FreeScale, Renesas, ST Ericsson et all. Zelf zo'n CPU ontwerpen kost jaren! Marvell bijvoorbeeld is er al 5 jaar aan bezig.
Dus dat Microsoft dat ook gaat doen, daar geloof ik helemaal niets van, al zou het leuk zijn.

Tevens heeft Microsoft helemaal niets aan alleen een CPU als er geen GPU bijzit. Die moeten ze dan ůf zelf ontwerpen, ůf een licentie kopen op Mali / PowerVR of dealtje sluiten met nVidia, en daar zijn geen berichten van.

[Reactie gewijzigd door kidde op 21 november 2010 19:59]

ARM wil ook doorbreken op de servermarkt. Hun servers zullen dan waarschijnlijk bestaan uit bijvoorbeeld 50 ARM processors die samen een berg geheugen delen, dan is 1 TB geheugen misschien handig?
Vraag zelf ook af wat verder het voordeel is van 64 bit als je met 40 bit al 1 TB kan adresseren..Want 64 bit rekent niet per se sneller ofzo.

[Reactie gewijzigd door Mr_gadget op 21 november 2010 16:40]

Vraag zelf ook af wat verder het voordeel is van 64 bit als je met 40 bit al 1 TB kan adresseren..Want 64 bit rekent per se sneller ofzo.
Er zijn uiteraard wel dingen mogelijk met 64 bits processoren, die op een 32-bits processor gewoonweg meer tijd kosten.
Dit omdat de interne registers ook groter zijn, waardoor operaties in hoge nauwkeurigheid, of met hele grote integer getallen, veel sneller gedaan kunnen worden.
Maar over het algemeen zal een 64-bits CPU met 64-bits software niet echt veel sneller zijn werk doen dan met de 32-bits variant van diezelfde software.

Echter het grootste voordeel is wel dat je een grotere adresruimte hebt.
Bij 32-bits CPU's kun je per proces maximaal 4 GB adresseren (met 8 bits als minimale adresseerbare geheugenplek) en in de praktijk van de PC ook maar 4 GB voor het hele OS en alle hardware die tegelijk moet kunnen worden aangesproken.
Dat is gewoonweg te weinig tegenwoordig en dus moet je wel 64-bits processoren en bijbehorend OS hebben om meer te kunnen gebruiken.

Het gaat er dus helemaal niet om dat je 4 miljard keer meer geheugen aan moet kunnen spreken, maar wel dat je meer dan 4 GB moet kunnen adresseren.
De meeste 64-bits CPU's van nu kunnen zelf ook amper meer dan 40 - 48 bits beheren aan geheugen, maar elk proces heeft in elk geval wel meer dan 32 bits aan adres-space.
64 bits bewerkingen hebben ook een nadeel: voor veel berekeningen is 64 bit helemaal niet nodig. Je gaat in veel gevallen dus nutteloos data uitwisselen met het ram. En laat het ramgeheugen nu net de bottleneck zijn van de meeste systemen.
Appels en peren:
ARM: 40 bit adressering, 32 bit instructie/data
Intel i7: 36 bit adressering (64 GB), 64 bit instructie/data
En dan Windows 7 Server x40 draaien ofzo ?
En dan Windows 7 Server x40 draaien ofzo ?
Volgens mijn onderschat je een arm A9 core heel erg, heb berichten gelezen dat dual core A9 core twee keer ze snel zou zijn dan een Atom N270. Stel win7 server kan op een arm draaien, dan zou die stuk beter draaien dan de atom win7 servers die nu verkocht worden. Er bestaat ook nog een quad core A9. Voor een zuinige kleine servers is dat dus helemaal niet zo gek. ;)

Edit/

Hier filmpje ARM A9 @ 500Mhz vs Atom @ 1600Mhz
http://www.youtube.com/wa...A&feature=player_embedded

ARM A9 kan stuk sneller dan 500Mhz en is de dual core, bestaat ook nog een quad core. De A15 zal waarschijnlijk sneller zijn dan de A9 dus die win7 server gaat die gemakkelijk trekken als het mogelijk zou zijn. :)

Edit/2

Het gaat overigens niet om de nieuwe limit van 1TB geheugen, maar om het limit wat de 32bit had, namelijk 4GB. Dat is te krap als je je cpu als server cpu wilt neerzetten. Zelfs voor desktop zou 32bit nu niet meer volstaan als nieuwe architectuur. ;)

[Reactie gewijzigd door mad_max234 op 21 november 2010 19:15]

heb berichten gelezen dat dual core A9 core twee keer ze snel zou zijn dan een Atom N270
Maar dat is alleen in specifieke gevallen: integer berekeningen, en waarbij weinig geheugentoegang nodig is. Daarom zijn ARM servers vooral interessant voor integer-heavy toepassingen als routers, streaming servers en webservers. Voor typische 'supercomputer' toepassingen met financiele of natuurkundige berekeningen, etc (die bijna altijd floating point zijn) zijn ARM servers minder geschikt.

Wil natuurlijk niet zeggen dat ARM servers geen toekomst hebben ofzo: er zijn miljoenen webservers, da's een gigantische markt.

[Reactie gewijzigd door Dreamvoid op 21 november 2010 21:43]

Heeft niks met onderschatten te maken, het is gewoon een compleet andere architectuur. De Windows kernel werkt tot nader order alleen op x86-64 instructies, en niet op ARM. Dus dan moet je een hele hoop gaan emuleren, en dan zal "2x sneller dan Atom" bijlange na niet genoeg zijn :+
Ja dat zeg ik stel dat win7 erop zou kunnen draaien, dus een hypothese. ;)
[...]

Maar dat is alleen in specifieke gevallen: integer berekeningen, en waarbij weinig geheugentoegang nodig is. Daarom zijn ARM servers vooral interessant voor integer-heavy toepassingen als routers, streaming servers en webservers. Voor typische 'supercomputer' toepassingen met financiele of natuurkundige berekeningen, etc (die bijna altijd floating point zijn) zijn ARM servers minder geschikt.

Wil natuurlijk niet zeggen dat ARM servers geen toekomst hebben ofzo: er zijn miljoenen webservers, da's een gigantische markt.
Ja zal niet in alle gevallen twee keer zo snel zijn dan een n270, maar ik denk dat A9 in veel gevallen sneller is dan de Atom n270. Ze zijn ontworpen om op 2Ghz te werken en worden nu op 28nm gebakken. Het platform in zijn geheel is vele zuiniger dan zelfs het huidige atom platform met factor van drie, 6.5w N480 soc VS 2w voor de dual-A9 SOC. Kosten weet ik zo niet, maar heb zo mijn vermoeden dat de dual-A9 SOC ook daar wint. Maar goed we hebben het hier eigenlijk over de opvolger van de A(9 de A15 en weet niet hoe die zich gaat verhouden.

Maar ze zijn zeker bruikbaar voor bepaalde toepassingen op server gebied. En die 64bit is gewoon een logische stap die ze maken.
nope, een N270 (TDP: 2.5W) is nog altijd stukken sneller. Maar: klok-voor-klok is er een klein voordeel voor de A9 (per core). En zonder een SIMD unit wordt een A9 natuurlijk extreem veel langzamer dan een Atom, al is dat een beetje oneerlijk - een A9-based SoC zal meestal een of meer aparte DSP/GPU chips toevoegen (maar verbruikt en kost dan wel weer meer). Op single-threaded, simpele integer berekeningen is een ARM supersnel. Al het andere, daarvoor moeten er losse FPU/APU/GPU/DSP chips bij.

Qua performance/watt zit er overall vrijwel geen verschil tussen Atom en A9. Maar op bepaalde specifieke taken zijn ze individueel wel beter. Bovendien heb je als smartphone maker geen keus: er zijn geen smartphone OSsen op x86 en alle mobile software is geoptimaliseerd op ARM. En als laptopbouwer ook: volwassen ARM OSsen zijn er ook niet, en laten we het over de apps ook maar niet hebben.
Heeft niks met onderschatten te maken, het is gewoon een compleet andere architectuur. De Windows kernel werkt tot nader order alleen op x86-64 instructies, en niet op ARM. Dus dan moet je een hele hoop gaan emuleren, en dan zal "2x sneller dan Atom" bijlange na niet genoeg zijn :+
volgens mij zijn er geen Windows 7 versies die op ARM draaien. Windows Phone 7 tel ik dan niet mee natuurlijk :P
Imho is dat wel een voordeel voor ARM, de Intel architecturen zijn nogal lelijk omdat ze zo backwards compatible zijn gebleven na al die jaren.
virtueel draait windows op alles, welkom in 21st eeuw trouwens.
Het draait waarschijnlijk wel, maar als je vanalles en nog wat gaan emuleren spring je niet echt zuinig om met je resources, en zuinigheid is waarschijnlijk net de reden waarom je een ARM server zou kopen.
(CPU's van intel en AMD hebben hardware support voor virtualistatie waardoor x86 virtualisatie op x86 bijna zonder snelheidsverlies mogelijk is)
Windows (de desktop versie) kan je natuurlijk wel virtueel draaien op een non-x86 platform, maar dan moet dat met een DOSBox-achtige constructie wat een performance hit van zo'n 99% oplevert. Voor serieuze software is het in de praktijk dus gewoon niet te doen.

Back on topic:
Dit is goed nieuws. Het zou reuze fijn als het 32-bit platform eindelijk helemaal met pensioen gaat.
Als programmeurs geen rekening meer hoeven te houden met een 32-bit compile komen de voordelen van 64bit pas echt te voorschijn.
Gewoon kunnen coden met 64-bit integers en weten dat ze net zo snel en atomic zijn als de 32-bits variaten geeft je behoorlijk wat vrijheid.

@ ncoesel
Een 32 bit proc kan niet in EEN stap 64-bits getallen optellen, ongeacht de programmeer taal of compiler. Dat heeft impact op de snelheid en/of thread-safety ongeacht de programmeer taal of compiler.

Het thread-safety probleem is op te lossen maar dat gaat altijd ten koste van nog meer snelheid.

[Reactie gewijzigd door SuperNull op 22 november 2010 07:31]

Als je nog tegen beperkingen van 32 bit aanloopt, dan wordt het voor grotere projecten tijd om over te stappen naar een taal die die beperking niet heeft. Dan heb je meestal nog veel meer vrijheden en minder mogelijkheden om stomme fouten te maken.
Dat is maar de vraag. De meeste virualisatie omgevingen kunnen niet een andere proc. voor je emuleren. Het bestaat wel, maar ze zijn schaars.
Volgens mij zijn er net zo veel 40 Bit OS'en in Linux versies als er Windows versies van zijn.
Die 40 bit slaat op de te gebruiken hoeveelheid geheugen, niet de adres-ruimte.
Bij 32-bits OS-en kun je maximaal 32 bit adresruimte gebruiken, oftewel 4 GB, waarin alles bereikbaar moet zijn. Elk proces heeft dan ook een eigen 32-bits adresruimte.

Voor de PC zijn er ook wel 36-bits extensies geweest, waarbij gedeelten konden worden 'uitgeswapt' van de adres-ruimte en dan heb je dus het ouderwetse 'gepagineerde' geheugen. Oftewel alles wat in het geheugen staat is niet ineens benaderbaar, maar zal eerst via een page-swap benaderd moeten worden.
Dit had de MSX al in de jaren '80.

Dit zijn echter kunstgrepen om meer geheugen te kunnen gebruiken en het heeft geen invloed op de adres-ruimte, omdat de processen zelf gewoon nog steeds maximaal 32 bits adresruimte zien.
Echter voor multi-proces-omgevingen is het wel handig om toch meer te kunnen gebruiken dan wat je per proces kunt adresseren.
Ik denk dat een aantal mensen het onderscheidt niet begrijpen tussen 40 Bits geheugen adressering en 64 Bits processor instructies.

Overigens mag het is inmiddels wel duidelijk zin dat je voor een server CPU niet meer met 32 Bits hoeft aan te komen.

[Reactie gewijzigd door fevenhuis op 21 november 2010 17:28]

Waarom is dat zo duidelijk? Webservers hebben echt geen 64bit instructieset nodig hoor. Intel en AMD plaatsen steeds meer cores op 1 chip. Als AMD besluit hun server processor op slechts 1 core te houden, maar dat je op een mainboard een veelvoud van hun processors kan plaatsen hebben ze denk ik een erg interessant model in handen.

Als ARM de prijs per processor dan erg laag kan houden zie ik zeker wel mogelijkheden voor ARM op de servermarkt.
Uiteraard heb je dan ook nog PAE kernels die dat limiet van 4 GB opheffen terwijl je gewoon 32 bit gebruikt :)
Er zijn nog meer besturingssystemen dan Windows hoor.. Debian, Gentoo en Slackware Linux draaien allemaal vloeiend op ARM processoren.
Servers draaien algemeen vaker Linux dan Windows, gelukkig.
Ehm, probeer eens een bergje schijven aan te spreken ook daar loop je tegen beperkingen op van zo rond de 2.2TB voor de meeste 32bits systemen gewoon omdat ze niet veder kunnen tellen dan dat. 40bits is leuk maar als je dan toch bezig ben stap dan gewoon naar 64bits over dat is dan wel zo handig.

Ook met een quad core setup ben je met een ARM systeem goedkoop af,, niet omdat je nu zulke goedkope hardware koopt maar wel omdat die dingen maar een fractie van het vermogen van een Intel of AMD chip vergen. Met andere worden als ik een server farm moet bouwen om bijvoorbeeld plaatjes te serveren voor Facebook, dan is alles dat ik nodig heb een hele berg systemen die heel veel disks en redelijk wat geheugen kunnen aan spreken en als het even kan praktisch geen energie vergen. De reken snelheid van zo'n chip is dan niet zo belangrijk als de chip 3x zuinger is en ik maar 2x zo veel chips nodig heb om het zelfde aantal plaatjes te serveren waarom dan extra energie kosten maken door andere chips te gebruiken?
Hoe kom je daar bij? Jij hebt het over het limiet van MBR wat op 2TB ligt, dat heeft niets met het OS of de CPU te maken.
Het gaat hier om de adressering van werkgeheugen. Met 40 bits daar kun je 1TB RAM aanspreken, ongeveer 250x zoveel als nu gebruikelijk is in een gemiddelde PC. Waarschijnlijk hoeven ze pas over een jaartje of 5 te beginnen zich zorgen te maken over die grens.
Die stap zie ik ook niet eerlijk gezegd maar zo zijn ze binnenkort wel in alle markten thuis. Een beetje concurrentie kan geen kwaad in cpu-land. Tis of Intel of AMD, Okť, je hebt nog Sun en IBM maar ik weet niet of die zelf ook iets ontwikkelen.
Maar naast ARM smartbooks en netbooks, waarom geen desktops en laptops?
Ze weten bij ARM in ieder geval wat zuinig met energie zijn is. En voor de concurrentie met AMD en Intel lijkt het me best interessant.

[Reactie gewijzigd door BlueLed op 21 november 2010 16:07]

Zolang ARM geen x86 instructieset kan gebruiken zullen ze voorlopig weinig concurrentie op de desktop markt kunnen bieden. Niemand heeft zin zijn huidige desktop os en software overboord te gooien, alleen het kleine deel linux gebruikers zou wellicht een ARM cpu overwegen.
Dat is onzin. Indien Apple bijvoorbeeld hun OS klaar maakt voor ARM boeit dat de gebruikers niet. Als het maar goed werkt.

Ik haal met opzet Apple aan omdat die juist hebben laten zien dat het de consument niet uitmaakt wat voor een cpu erin zit. Hoe simpel is de overstap van IBM naar Intel gegaan?

Hoe meer gadgets er komen en hoe groter de markt penetratie is van diverse OS-en, hoe sneller dat zal doorslaan naar andere gebruiksomgevingen. Apple heeft de macht nieuwe mark segmenten open te breken, te maken en succesvol te laten worden. Kijk naar de iPhone en iPad.

Het is ook niet zo dat ARM windows pc's gaat vervangen, maar meer dat het Windows desktop pc's gewoon overbodig maakt. Het maakt, door de naamsbekendheid van Android en Apple, de consument steeds minder uit op wat voor een platform ze kunnen doen wat ze willen doen.

De x86 instructie set is al lang niet meer heilig en mensen zijn steeds sneller geneigd andere oplossingen dan Windows te aanvaarden.
Dat is onzin. Indien Apple bijvoorbeeld hun OS klaar maakt voor ARM boeit dat de gebruikers niet.
'OSX' draait al op ARM, namelijk in de iPad en iPhone e.d, qua core is het hetzelfde als OSX, de GUI laag is anders samen met de frameworks e.d.
Andersom juist: de kernel is compleet anders, maar de libs/frameworks zijn afgeslankte versies van OS X. De GUI laag is gewoon (simplified) Cocoa. Dat maakt het ook zo makkelijk developen voor de iPhone, veel is gewoon hetzelfde.

[Reactie gewijzigd door Dreamvoid op 21 november 2010 21:40]

OSX is niet iOS.

Hoewel, aangezien Apple OS X al een keer vertaald heeft hebben ze de kennis in huis om dat nog eens te doen, mochten ze dat willen.

Aan de ene kant is het dan ook jammer dat Apple net overgestapt is op Intel, aangezien ARM de komende tijd erg geschikt lijkt te worden voor het soort apparaten wat Apple maakt. Aan de andere kant biedt x86 ook iets wat ARM niet kan: compatibiliteit, en dat heeft een grote rol gespeeld in de groeiende opmars van Macs. Misschien gaat Apple in de toekomst de Macbook Air serie met ARM uitrusten, dat zou wel een goede move zijn. Baanbrekende accuduur denk ik.

[Reactie gewijzigd door Jeroen op 21 november 2010 23:41]

Apple heeft nooit ARM op de Mac gehad, de oude Mac's hadden PowerPC CPU's

Daarnaast zou dan op die MacBook Air's geen enkele software draaien.

[Reactie gewijzigd door Wolfos op 22 november 2010 08:10]

Hoe simpel is de overstap van IBM naar Intel gegaan?
Als je kijkt hoelang dat het heeft geduurd voor men helemaal over is.... niet zo simpel, Apple heeft heel lang beide instructie-sets moeten ondersteunen, net als de ontwikkelaars.
De x86 instructie set is al lang niet meer heilig en mensen zijn steeds sneller geneigd andere oplossingen dan Windows te aanvaarden.
Het falen van linux op netbooks doet anders geloven. Alles was mogelijk op linux-netbooks, maar fabrikanten zijn er weer vanaf gestapt omdat consumenten toch gewoon Windows wilden.
De x86 instructie set is al lang niet meer heilig en mensen zijn steeds sneller geneigd andere oplossingen dan Windows te aanvaarden.
Voor gadgets wel, maar voor dagelijks gebruik willen ze toch gewoon MS Office, Photoshop, Farmville etc.
Sun heeft SPARC, IBM heeft POWER cpu's. Ontwikkeling gaat wel door, maar niet in een tempo dat je met Intel kan vergelijken.
SPARC en Power ontwikkeling gaat weldegelijk even hard als dat van Intel, echter in grotere/langere stappen.

Anders zouden beiden architecturen al lang afgeschreven zijn.
SPARC is ook zo goed als afgeschreven volgens mij, ook al wil Oracle het nog niet hardop zeggen. Buiten de schaalbaarheid in aantallen threads en CPU's per machine is er ook praktisch geen voordeel meer voor SPARC, en op die eigenschappen wordt is de concurrentie inmiddels SPARC al bijna geŽvenaard. Ik denk persoonlijk dat SPARC over een jaar of 3 niet eens meer wordt verkocht.
is Oracle niet op zoek naar een cpu bouwer om een "volledig" pakket te kunnen aanbieden (zoals IBM)?
wie weet kopen ze wel ARM...
Mbt 1TB werkgeheugen: Er zijn voldoende wetenschappelijke problemen die veel geheugen nodig hebben. Je kunt wel een cluster inzetten om voldoende geheugen bij elkaar te sprokkelen maar de uitwisseling van data en andere informatie zal op een gegeven moment de grootte van het probleem wat je redelijkerwijs kan oplossen gaan beperken en het liefst wil je dit soort I/O dus eigenlijk vermijden.
@Singular1ty
Nou, linux draait wel op ARM en dan kun je als je wilt Windows virtualiseren, zo vaak als je wilt en vaak virtualiseren heeft ook veel geheugen nodig.
Ik volg het ook niet helemaal maar,

maar in ieder geval voor servers.
Aangezien Windows 7 " maar 192gb ram" support (niet eens alle verzies)

En voor een normale computer heb je ook niet zoveel nodig,
Maar voor een hele grote server.
Bijvoorbeeld support Windows server 2008 2TB Ram (ook weer niet alle verzies)
Windows 7 server bestaat niet.
Laatste server editie is Windows server 2008..
ARM processoren zitten niet te vergeten ook in veel embedded apparaten. Daar zou de vraag natuurlijk ook vandaan kunnen komen.
Embedded systemen gebruiken diverse bit breedtes, van 8 tot 32 bit. Je zou er nooit aan kunnen ontkomen dat de vraag naar nog meer (64 bit) zou komen. Met 64 bit kost het natuurlijk minder instructies om met 64 bit getallen te rekenen, ofwel efficiŽntere systemen, dus ook minder energie.
Een 32-bits CPU kan ook prima met grotere registers rekenen.
De 386 had ook al intern 80 bit grote registers voor gebruik in de FPU.

De grootte van de registers bepaalt niet of het een 32-bit CPU is.
De grootte van de registers bepaalt niet of het een 32-bit CPU is.
Gapjas :P, natuurlijk wordt dat bepaald door de registergrootte!

De bitbreedte van een CPU wordt doorgaans bepaald door de grootte van de adresregisters (en het liefst ook de integer dataregisters, die zijn op de meeste gangbare CPU's even breed) van de CPU.

Een 32-bit CPU gebruikt dus 32-bit adresregisters zodat processen 2^32 = 4GiB aan adresruimte hebben. Een 64-bit CPU gebruikt 64-bit adresregisters, wat leidt tot een adresruimte van 2^64 = 16EiB.

Het is verwarrend dat verschillende onderdelen van een CPU verschillende bitbreedtes kunnen hebben; Zo had de originele Intel Pentium 32-bit integer- en adresregisters, een 64-bit geheugendatabus, en 80-bit floating-point registers. Het zijn hierin de adresregisters (en in mindere mate de integer registers) die bepalen hoe we de hele CPU noemen.

Wikipedia is het overigens met die definitie eens:
Without further qualification, a 64-bit computer architecture generally has integer and addressing registers that are 64 bits wide, allowing direct support for 64-bit data types and addresses.
Ik dacht tot de 487 fpu tot 64bit floats kon doen, en sinds de komst van de Pentium er 80bits registers waren?? en met sse 256bits

[Reactie gewijzigd door Flooperke op 21 november 2010 17:33]

De 386DX had nog geen ingebouwde FPU. Dat was voor het eerst bij de 486DX. De goedkopere 486SX had ook geen FPU (of had een uitgezette FPU). De goedkopere 386SX had zelfs een externe 16-bits bus meen ik.

Volgens mij hadden de eerste FPU's single en double precission floating point dus 32 en 64 bits, maar ik zie hier in een boekje dat de 486 inderdaad ook al 80 bits had.
Maar ja, wat moet een Bosch Tassimo koffiezetter (jawel, daar zit een NXP/Cortex-M in!) met >1TB werkgeheugen?
Programmatuur inbouwen dat hij een (heel groot) lijstje bijhoudt van wie welke koffie wilt?... ;)
mmm best interessant voor de toekomst van desktops. Op de desktop markt is er geen concurrentie op cpu gebied. Intel heeft de meeste licenties en voor elke cpu die AMD verkoopt gaat er een deel naar microsoft (en viseversa). Tevens liggen de prestaties al jaren dicht bij elkaar. Intel is soms de betere en soms is AMD de betere.

Indien ARM eerst de server markt openbreekt en een flink potje mee kan blazen is de stap naar de desktop markt niet meer zo heel groot. Er is vast wel een durf investeerder die de sprong durft te wagen.

Wat zie je dan? Daar waar de grootste afnemers zitten (office pc's) zijn eenvoudig over te halen. Qua kracht die gevraagt wordt voor bijvoorbeeld tekstverwerking, powerpoint, email en agenda functies is denk ik een Terga 2 250 meer dan genoeg. Als ik zie hoe snel in kan werken op een iPad moet de Tegra meer dan genoeg power hebben.

Als je een bedrijf verbruikscijfers kan laten zien die 50% lager uitvallen dan dat ze nu hebben bij hun x86 pc's zullen ze snel toehappen. indien je per jaar 1 miljoen kwijt bent aan energie kosten denk ik dat je de boekhouder een enorm tintelend gevoel in zijn broek kan geven met deze technioek...

Dit kan eventueel uitgebreid worden met thin clients op Arm basis.

x86 is in het algemeen energie slurpend. De "zuinige" Atoms, zijn in verhouding met de ARM niet echt zuinig en missen simpelweg de power om lekker mee te kunnen werken. Simpel typen, powerpoint internet en mail werkt op mijn samsung n130 redelijk maar zeker niet beter dan op mijn iPad.
Indien ARM eerst de server markt openbreekt en een flink potje mee kan blazen is de stap naar de desktop markt niet meer zo heel groot. Er is vast wel een durf investeerder die de sprong durft te wagen.
Ik vermoed dat Apple een van de eerste is die dit gaat doen.
• Apple ontwerpt al z'n eigen ARM cores (de A4 in de iPad/iPhone4)
• Jobs krijgt een strakke plasser van hele dunne computers en de power/watt van ARM maakt dit mogelijk.
• Apple heeft al meerdere malen aangetoond met minimaal ongemak voor de eindgebruiker van CPU architectuur te kunnen wisselen.
Weinig kans.

Ten eerste is Apple geen durfinvesteerder. Ze wachten altijd tot anderen met iets nieuws komen dat slecht verkoopt, verbeteren het, hoop marktonderzoek, dan aanpassen aan wensen van klant, beetje versimpelen, goedkoopste Chinese hardwareboer contracteren, hype creŽren en gaan!!! Kortom, totdat de techniek door anderen bewezen is, maar die voor geen meter verkoopt.

Ten tweede: Een 'ecosysteem' van serversoftware stamp je niet binnen twee jaar uit de grond zoals je dat bij iPad / iPhone doet. Veel bedrijven gebruiken software van >2 jaar oud. Apple heeft volgens mij ook weinig marktaandeel bij servers, wat aangeeft dat Apple zelf er weinig omgeeft of geen enkel bedrijf hun servers wil. Ik denk het tweede.

Ten derde: Er zal zowiezo een hoop concurrentie zijn, iedere Chinees kan goedkope ARM-servers / chips maken, en dat doen ze ook (zie NuFront). Dus marges zullen laag zijn. Dat de Apple Server een geilere interface heeft en een mooier huidje zodat bepaalde mensen het er warmer van in hun broek krijgen zal de IT-afdeling worst zijn, dat is niet het doel van servers.

Ten vierde: Apple hardware is meestal gericht op high-performance, net zoals PPC dat was en Intel dat is. ARM is meer gericht op efficiŽntie.

Ten vijfde: Apple is gericht op totale controle van hardware. Voor 'grootverbruikers' als FaceBook e.d. lijkt me dit totaal onacceptabel, dus of Apple zal richting grotere bedrijven wat soepeler moeten zijn, of ze maken geen kans.

Als we kijken wie er momenteel ARM-chips maken voor servers zijn dit NuFront en Marvell. Apple misschien ook (want die vertellen dat nooit), maar persoonlijk acht ik de kans verwaarloosbaar klein.

[Reactie gewijzigd door kidde op 21 november 2010 19:41]

Apple is (was) misschien geen durf investeerder maar Steve Jobs is dat anders wel. Ik weet niet of je het verhaal achter NeXT kent? maar voor dat bedrijf ook maar ťťn cent omzet draaide stond het gehele gebouw al vol met design meubelen en de modernste telecom producten. De NeXT Cube bv. was echt wel iets vernieuwends en was niet eens zo duur.

Je hebt wel gelijk op het vlak van server penetratie. Niet voor niets dat apple de Xserve heeft afgescheept. Ik denk niet eens dat OS X server het nog zo lang zal uithouden (ik denk dat het gratis zal worden en een onderdeel van de standaard OS X, de cashflow van apple te zien ...)

Maar dat van die power? Neen, apple gaat voor zijn cosumer producten (de grote meerderheid van zijn producten) echt wel die dingen uitkiezen die efficiŽnter werken (compacte formfactor, niet te veel lawaai, lange batterijduur) en niet zo zeer power. NIet voor niets dat ze een batterij autonomie van 8 uur + halen uit de niet MBA. En de nieuwe "agressieve prijzing" MBA (evenveel als de macbook, maar nog altijd het dubbele van de industriŽs instapmodellen) bewijst denk ik echt wel dat Apple inzet op (ultra) portabiliteit en niet zo zeer de power en veeleer pro-energie efficiŽntie keuzes maakt.

En ik zie het probleem tussen ARM en Apple niet echt ... Daarnet nog een artiekeltje gelezen van een architecte die dacht dat ze wist waarom apple zoveel beter was (software is zogezegd afgestemd op de hardware en allebei zijn in eigen huis geproduceerd). Die strikte scheiding tussen Apple hardware en de rest van industrie bestaat echt niet. Dat van apple ziet er hoog uit wat anders uit op het eerste zicht, maar buiten de EFI Firmware, is praktisch alles intern hetzelfde als bij de andere producenten. En ik heb niet echt het gevoel dat het mac platform zo gesloten is ... zeker als je het vergelijkt met het windows Platform. De enigste reden waarom Facebook e.a. niet voor apple zouden kiezen zijn marketings overwegingen (apple probeert op steeds meer terreinen actief te zijn), maar google staat denk ik facebook harder in de weg dan apple.

[Reactie gewijzigd door 383438 op 23 november 2010 21:53]

Buiten geheugen alloceren is het adresseren van geheugenadressen misschien nog wel belangrijker in 64bit omgevingen. Je kunt niet op een 32bit systeem meer dan 4GB mmap'en wat natuurlijk jammer is.
waarschijnlijk is het vooral efficienter, zie ook VLIW

Wie kent er nog de crusoe van transmeta?

[Reactie gewijzigd door g4wx3 op 21 november 2010 16:17]

De embedded systemen waar deze cpu's terecht komen zijn niet aleen de telefoontjes, maar ook de andere apperatuur waar geen msWindows voor nodig is. Denk daarbij aan:
  • de nas boxen die velen thuis hebben staan
  • de streaming devices die velen bij de tv hebben staan
  • de routers, bridges, switches endergelijke, die steeds meer moeten gaan doen
  • de route zoekers en andere gps apperatuur
  • de handheld spel computers (naast de gpu)
en verzin zo nog maar wat apperatuur waar meer inteligentie in zit dan in een gloeilamp maar het met minder energie moet doen.

Maar ook voor de gemiddelde telefoon van tegenwoordig is meer nodig dan de cpu die daar 15 jaar geleden voor is bedacht.
Zeer mooie evolutie! Eindelijk iets dat hopelijk ooit eens de RISC architectuur zal vervangen :)
jullie zijn wel grappig (in de reacties hierboven).
eerst en vooral is windows 7 momenteel ENKEL beschikbaar voor i386 architectuur. Dus win7 op ARM, forget it
en win phone 7 op een 40 core arm met 1TB aan memory: forget it.

In serverland praat met echt wel niet over dat desktop os'je, maar eerder (en waarschijnlijker) over UNIX operating systemen. Systemen die echte computational en scalable power geven. Windows is leuk als mailservertje, of spelletjes, maar voor het echte werk is er wel iets anders nodig.
Klein reken-tipje dat vele mensen hier precies kan helpen met het "aantal bits"-> geheugen addressering:
2^10 is 1000... 2^20 is 1.000.000 enzovoorts. Dus 2^40 is 1.000.000.000.000, dus 1TB.
en doet nu nie belachelijk en zeggen dat 2^10 1024 is enzo, he... het is hier een "ongeveer", een hulptelmiddeltje. want 1TB is WEL 2^40 ;) dus daar klopt het wel weer juist. Het telt gewoon zoveel gemakkelijker :)

alleszins, het wordt hoog tijd dat die lelijke i386 architectuur er eens uit geconcureerd wordt! we zitten al lang genoeg met die ongelooflijke knoert van een processor architectuur! tijd voor anders en beter! leve ARM/PowerPC/...! en voor die die het nog kennen:
Gedenk onze aller geliefde Alpha architectuur bij deze nog eens... DAT was nog eens een processor architectuur!..
Klein reken-tipje dat vele mensen hier precies kan helpen met het "aantal bits"-> geheugen addressering:
2^10 is 1000... 2^20 is 1.000.000 enzovoorts. Dus 2^40 is 1.000.000.000.000, dus 1TB.
en doet nu nie belachelijk en zeggen dat 2^10 1024 is enzo, he... het is hier een "ongeveer", een hulptelmiddeltje. want 1TB is WEL 2^40 ;) dus daar klopt het wel weer juist. Het telt gewoon zoveel gemakkelijker :)
Je hebt wel gelijk dat het ongeveer klopt (alleen wordt het steeds onnauwkeuriger als je verder gaat, bij 2^60 zit je er al 13% naast), maar waar je vandaan haalt dat 1TB wel juist 2^40 is is mij een raadsel.
1TB = 1.000.000.000.000 (staat zelfs in je eigen post) en 20^40 is 1.099.511.627.776, zeker niet juist 1 TB dus.

[Reactie gewijzigd door Goderic op 22 november 2010 23:22]

hij zegt: 2^40 is bij benadering = (10^3)^4. Die 2^40 is wat ťťn TB werkelijk is. (eigenlijk is het nog niet helemaal juist wat hij zegt, een TB (terra byte) is eigenlijk effectief10^12 bytes, voor 2^40 bits spreken we over Tebibyte of TiB).

Ik volg harrudg volledig op het vlak van windows als een home user procduct (dat servers veel meer UNIX flavors zullen draaien, maar dat licht hem volledig aan de verschillen in netwerk architectuur en de kleinere overhead van een product zonder GUI, wat door MS niet wordt ontwikkeld (als standalone product)). Maar langs de andere kant denk ik wel dat de hybrid kernel van windows het wel toelaat op een multi-core set-up te merken. Ik denk dat het nog eerder moeilijk zal worden bij de Linux-kernel (die nog steeds een miro kernel is) en (denk ik) uit ťťn enkel heel groot tread bestaat (met daarnaast enkele kleintjes). DIt is geen probleem zolang ťťn core in staat is alle berekeningen voor dit OS uit te voeren, maar zodra dat de individuele kern te traag wordt, zal dat een enorme bottleneck worden voor het OS. (Ik ben niet zeker!, correct me if I'm wrong :))
wow wat ik al 5 jaar zeg tegen me vader word realiteit (langzaam maar zeker)
Ik dacht hoe kan een laptop met 15 inch beeldscherm iets van 25 watt gebruiken als een desktop gemiddeld rond de 500 licht zonder beeldscherm.
Ik hoop op apple+arm
Net even gechecked: mijn Intel Core 2 Duo op 3GHz, 4GB RAM, 2 HDD's (820GB) & 7600GT videokaart gebruikt nu, tijdens het internetten, zo'n 97 watt (zonder monitor). Er zit een 300 watt voeding in, maar dat is gewoon de maximale piekbelasting die die nog zou kunnen trekken (meestal zit dat er nog wat onder overigens). Zou ik m'n videokaart eruit trekken en de onboard videokaart gebruiken, dan gaat er nog zo'n 15 watt vanaf en zit ik op zo'n 82 watt. Netjes toch? :)

Een laptop gebruikt onderdelen die minder stroom verbruiken, en de processor en videokaart kunnen zichzelf veel beter terugschakelen om stroom te besparen. Het moederbord verbruikt minder, de 2,5" hdd verbruikt minder (en het is er vaak maar 1 die wat langzamer draait), RAM verbruikt minder stroom, het moederbord verbruikt minder stroom, de videokaart verbruikt weinig stroom (zeker de onboard chippies), etc.

Dat heeft wel een prijs natuurlijk, in geld danwel in performance: ůf je betaalt meer voor dezelfde performance als een desktop, of je levert prestaties in: spellen hoef je op een laptop die maar 25 watt verbruikt niet te proberen... dan moet er wel een dikke videokaart in zitten, maar die gooit het hele verbruik al snel richting de 70 tot 100 watt.
Als je een ťcht lekkere gaming laptop wilt zoals de Alienware M17X, dan heb je een idle stroomverbruik van 46 watt en 166 watt bij vol vermogen... :Y)

En desktops die weinig verbruiken zijn er al, kijk maar eens naar een dualcore nettop als de Shuttle X27D met een verbruik van zo'n 35 watt bij een volledige belasting. Daar moet je dan geen games op willen spelen, maar internetten, videootje kijken, muziek & verslagen schrijven gaat uitstekend op dat ding.
Een desktop gebruikt echt niet gemiddeld 500 Watt zonder beeldscherm. Ik weet niet of je 500 Wat tidle of load bedoeld, maar om aan 500 watt load te komen moet je al een dikke cpu en een dikke grafische kaart hebben. Echt geen gemiddelde pc dus.
500 watt idle is al helemaal ziek voor een desktop.
Ik zie het al helemaal zitten een 64-bits in mijn Nokia N900 :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True