Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties

Een medewerker van Microsofts Global Foundation Services, verantwoordelijk voor de datacentra in het bedrijf, heeft betoogd dat een Atom-processor met zestien cores aan boord veel energie zou kunnen besparen in serveromgevingen.

Volgens Global Foundation Services-medewerker Dileep Bhandarkar zou een Atom-processor van Intel met flink meer cores dan de huidige versies in datacentra ingezet kunnen worden. De zuinige chips kunnen volgens hem onder bepaalde omstandigheden efficiënter met energie omspringen dan bijvoorbeeld Xeon-processors. Bhandarkar betoogde tijdens The Linley Group Data Center Conference dat de processors als soc geconfigureerd moeten worden om energie optimaal te benutten. Dan zou minder verloren gaan aan chipsets, north- en southbridges en andere componenten.

Of Intel daadwerkelijk een Atom-soc met zestien cores gaat produceren, valt nog te bezien. Microsoft heeft uiteraard een enorme invloed op de verkoop van Intel en kan daarom aardig wat druk uitoefenen, maar Intel heeft vooralsnog geen plannen om een server-Atom uit te brengen. Wel heeft het bedrijf voor energiezuinige 'cloud'-servers zijn Single-chip Cloud Computing-processor beschikbaar. Hoewel die processor niet commercieel beschikbaar is, zou die wellicht een meer logische kandidaat voor servers zijn.

Naast eenvoudige, zuinige processors als de Atom, maar ook AMD's processors op basis van de Bobcat-architectuur, zou Microsoft ARM-servers overwegen. Of die architectuur kan concurreren op prestaties-per-watt is onduidelijk, maar volgens Bhandarkar zou het Intel en AMD in ieder geval kunnen aansporen om zuinigere x86-processors te produceren. Die processors moeten dan, net als AMD's Bobcat-core, instructies out-of-order kunnen verwerken om effectief te zijn. De Atoms van Intel kunnen alleen in-order werken en zijn daardoor vaak minder effectief dan out-of-order-processors.

Moderatie-faq Wijzig weergave

Reacties (45)

Je ziet steeds vaker dat ze meer en meer cores in chips gaan stoppen. Dit heeft zowel voor als nadelen. een single core 3.2GHz procesor en een 1.6GHz dual core kunnen evenveel berekeningen maken per seconde (mits de architectuur van pipeline overeenkomt). helaas gaat het fout bij het verdelen van lange reeksen van berekeningen die na elkaar moeten worden uitgevoerd. want dit kan slechts op 1 core draaien met een maximum snelheid van 1.6GHz. niet alle programma's kunnen/zijn geschikt gemaakt voor het omgaan met meerdere processors.
Zie ook: Amdahl's law

Het grote voordeel is de energie die per core nodig is en dat je cores uit kan schakelen. multi core cpu's zijn meerdere kleinere chips die zijn samengevoegd tot 1. doordat het kleiner is is de elektrische weerstand minder en word er per core minder hitte geproduceerd.

Meer cores in een chip leidt dus altijd tot een zuiniger systeem maar het gaat in sommige gevallen wel deels ten kostte van de snelheid.
natuurlijk wordt er continu aan zowel de snelheid als de efficientie gesleuteld waardoor je er niet snel op achteruit zal gaan in de praktijk als je meer cores in je systeem stopt

Vind het wel mooi om te horen dat er de laatste tijd veel gedacht wordt aan het zuiniger maken van datacenters. cloudcomputing heeft hedendaags steeds meer toepassingen waardoor datacenters steeds zwaarder belast worden. vind het daarom prima dat microsoft intel aanspoort om dit soort processors te ontwikkelen. vraag me alleen af waar de grens ligt. na een tijdje is het opschroeven van het aantal cores niet meer rendabel en moeten er andere dingen worden bedacht om energie te besparen.
Verder denk ik dat Intel toch al wel enigzins bezig was met dergelijke projecten.
Ja het idee is erg leuk, lekker veel zuinige cores waardoor je veel taken tegelijk uit kan voeren in plaats van taken op elkaar te moeten laten wachten, de taken zullen per stuk wel trager gaan maar wel eerder afgehandeld kunnen worden. Echter of het al die R&D kosten waard gaat zijn? Voor veel taken heb je alsnog ook harde cpu kracht nodig en nog niet alles zal optimaal op multicores werken. Daarnaast bespaart het vooral energie want je kan in principe ook gewoon een 10 core Xeon gebruiken als je echt veel cores nodig hebt.

Het is voornamelijk vanuit een ideologie denken, net als ARM servers, leuk, maar de meeste software is er gewoon niet geschikt voor. Voor hosting kan dat wel interessant zijn, dat kan in principe prima op een ARM server draaien. Maar dan heb je dus servers die enkel voor specifieke doeleinden geschikt zijn, voor de eindgebruiker leuk maar om daar nu R&D aan te wijden?

Toevoeging: Cloud computing kan ik nog wel begrijpen, daar is het waarschijnlijk efficienter om iedere gebruiker een eigen Atom core te geven dan een Xeon core met velen te delen. Dat zou misschien nog wel een mooie toepassing zijn.

[Reactie gewijzigd door Tsurany op 28 januari 2011 13:04]

Webdiensten draaien betekent alleen op servers die dom een PHP-script uit moeten voeren en wat data uit moeten geven. Dan heb je gewoon veel goedkope parallelisatie nodig.

"Veel taken" waar harde CPU-kracht nodig voor is moeten inderdaad Xeons gebruiken. Dat neemt niet weg dat goedkope 8- en 16-cores erg gretig aftrek zullen. De suggestie dat het niet de R&D waard zou zijn omdat een Xeon ook goed werkt is zeggen dat het niet de R&D waard is om een Fiat Panda te R&D'en voor mensen die op zaterdag naar de supermarkt gaan omdat een Hummer ook prima werkt, en die kracht van een Hummer voor "veel taken" ook nodig is.
misschien heb jij nog nooit zware webservers gezien maar webdiensten als ebay, google, banken doen wel "iets" meer dan enkel een klein scriptje draaien. Veel webservices hebben flink zware servers nodig.

De vraag is niet of intel energie zuinige servers moet maken voor low-end toepassingen. De vraag is meer of een Atom een geschikt ontwerp is of dat men beter een low voltage xeon kan gebruiken.
IDD, volgens mij zijn CULV en ULV processors van Intel veel beter dan atom-chips, als het op energiebesparing aankomt. Ze verbruiken nauwelijks meer maar leveren wel veel meer rekenkracht, daarnaast hebben ze dacht ik meer idle-functies dan de atom. Enige nadeel is dat die chips wel redelijk duur zijn.
Ik vermoed dat de business intelligence bij eBay, Google, banken niet op de webservers draait, maar op een laag daaronder. Als de webservers gehackt worden, ligt heel de logica bloot. De "back-end servers" kunnen best Opterons/Xeon/SPARCs/.. aan boord hebben met daarnaast zuinigere procs voor de webservers.
Ik zou dan toch echt een Oracle processor er bij pakken en gewoon lekker met een 8 core chip aan 32 draadjes te gelijk punniken. Dat scheelt een heleboel tijd met wachten op Intel en AMD om eindelijk eens die vingers uit het dikke achterwerk te plukken en een oplossing te bedenken die hier mee kan concurreren.

De processoren zijn in aanschaf duurder maar voor een ieder die al eens een tijdje met SUN hardware gewerkt heeft is een ding zeker het is beter en betrouwbaarder gebouwd dan de op Intel/AMD gebaseerde systemen die de concurrenten leveren.

Oracle is druk bezig de hardware verder op te voeren en komt binnen niet al te lange tijd met een processor die per voetje 64 of zelfs 128 draadjes te gelijk kan verwerken. Dat is iets dat zeker webservers en andere massively parallel services heel erg goed kunnen gebruiken het aantal gebruikers dat je per webserver kwijt kan is op dit moment toch echt voornamelijk beperkt door het aantal draadjes dat je processor tegelijk kan verwerken. Wat processor kracht en geheugen betreft kan een Atom het vaak ook nog wel bij houden maar helaas heeft het de mogelijkheid om voldoende klanten tegelijk van een reactie te voorzien.

Een 16 core Atom kan maximaal 16 of 32 treads tegelijk verwerken iets dat SUN nu al levert en wat energie verbruik liggen de SUN en de huidige Xeon processoren niet al te ver uit elkaar... een many core ATOM processor zal waarschijnlijk minimaal net zo veel gebruiken en is dus wat dat betreft niet voordeliger dan een SUN processor die nu al op de markt is. Tegen de tijd dat Intel de R&D rond heeft is Oracle ze al weer jaren voor...
De cloud computing processor van Intel die eigenlijk ook niet veel meer is dan een many tread processor lijkt dan een betere optie.

Ik vermoed dat het geen deze Microsoft meneer wilde zeggen niets meer is dan we willen een processor die veel meer treads tegelijk kan verwerken dan de huidige processoren maar niet het huidige TDP plafond doorbreekt.
Een server heeft vaak een specifiek doeleinde en dat doeleinde is al goed multiu-threaded of multo process to doen.

PostgreSQL -> Multi Process
Apache Webserver -> Multi-Process
Java -> Multi-Thread
MySQL -> Multi-Tread
en ga zo maar door....

Deze applicaties kunnen prima ieder op een eigen core gedraait worden en je hebt voor de meeste processen geen brute rekenkracht nodig. Wat je wel nodig hebt is een methode hem snel data te verplaatsden, dus snelle HD's en geheugen beheer.

Het 'engige' wat je wel moet oplossen zijn SSL verbindingen, want die hebben veel rekenkracht nodig, maar daar zijn momenteel ook hardware oplossingen voor.
PostgreSQL
Vergis je niet, voor een beetje storage backend voor een websiteje heeft PG niet veel rekenkracht nodig, maar zodra je PG gaat gebruiken als een OLTP database met een shitload aan logica (stored procedures/triggers) schieten je CPU vereisten wel even omhoog, hoor. Dan gaat het niet enkel meer om datatransport, maar ook om datamanipulatie.
De vraag is niet of er wel of niet veel CPU vereist is.

De vraag is of die CPU load wel of niet parallel verwerkt kan worden.
Zo ja, dan gooi je er een paar honder atm cores tegenaan ipv Xeons, en dan krijg je waarschijnlijk meer cpu kracht per watt.
Zo nee, dan heb je een relatief klein aantal zeer krachtige cpus nodig.
De i chips van intel zijn hiervoor veel interessanter.
De mogelijkheid om cores te kunnen parkeren om een interne overclock uit te kunnen voeren levert een CPU op die (relatief) zuinig is, goed multiprocess kan draaien en snel singleprocess kan draaien.
Run your windows 8 on 16-cores
zou een ludieke stunt zijn... maar dat neemt niet weg dat ik wel benieuwd zou zijn naar de prestaties t.ov. een gelijk geprijsde ocotocore met hyperthreading....

Denk dat de Atoms nog wel eens zouden kunnen winnen, puur omdat het echte cores zijn, en heen virtuele...

Maar dan moeten ze wel volledig x64 zijn, want anders dan kunnen we er niets mee doen in de huidige servermarkt.

[Reactie gewijzigd door Ryaka op 28 januari 2011 13:10]

Atom's zijn goedkoop, dat telt ook mee. Echter vergelijk je zo'n 16 core Atom met een 6 core Xeon en ga je dan kijken welke meer berekeningen af kan handelen in dezelfde tijd dan zal de Xeon met gemak winnen. Het verschil is echter dat de Atom een stuk zuiniger kan zijn waardoor hij bij lage belasting alle taken toch snel tegelijk kan afhandelen zonder dat de stroomkosten net zo hoog uitvallen.
Die Atom zal je denk ik niet willen gebruiken in servers die speciaal bedoeld zijn voor number crunching.
Dat ligt er maar aan.
Als het number crunching zeer goed te parallelliseren is, dan kan het zijn dat het gunstiger is die atoms te gebruiken.

Het gaat er om hoeveel processing kracht je per watt hebt.
Als die verhouding bij een atom groter is, dan gooi je er gewoon wat extra atoms tegenaan. Uiteindelijk heb je dan voor hetzelfde energieverbruik betere prestaties.
De meeste atoms zijn ook voorzien van HT.
Zoiets deed Sun toch ook allang met hun Niagara-CPU?
Maarja, die loopt natuurlijk niet op MS-OS'en
Deze had in de finale vorm 64 threads, maar je kon er eigenlijk alleen maar webservers op runnen. Van zodra je er echt zware load op zette, stuikte de performantie in elkaar.

http://images.anandtech.c...P_MySQL_NoGzip_normal.jpg

Niagara heeft dan ook nooit een echt alternatief geweest, het was op een bepaald moment zo erg, dat sun zelf AMD cpu in z'n server systemen is gaan implementeren.
Je draait de zaken om Sun ging eerst AMD toepassen en kwam later met de T1 en T2
Ik zou dit niet slecht vinden. Een druk bezochte webserver heeft tegenwoordig meer nood aan een goede data-doorvoer (disk <=>nic) dan een superkrachtige cpu.

als je rekent aan 7w/core kom ik uit aan 56w (tov de 95 tot 130w voor de laatste xeons).
stel dat je 4socs hebt kan dit 150 tot 300w per server schelen, gaat al richting 1ampere minder, stel nu dat er 40€ per mnd / ampére gerekend wordt, heb je een besparing van 480€ op jaarbasis voor 1 server.

wat 64bit en vt ondersteuning aangaat vind ik dit momenteel nog een gemis in de huidige atom reeks. het is of 64bit, en een dual-core atom met vt hebben ze nog niet.

[Reactie gewijzigd door dusti op 28 januari 2011 14:03]

Een druk bezochte webserver heeft tegenwoordig meer nood aan een goede data-doorvoer (disk <=>nic) dan een superkrachtige cpu
Maar je zit nog steeds met het punt dat de data blokken van de disk niet rechtstreeks naar de NIC kunnen. Die moet verwerkt worden. Een brede bus naar het geheugen, de I/O sloten en de schijfcontroller zijn hierbij even belangerijk en dat heeft een Atom niet.
Leuk zo'n 16 core atom, maar de eerste multi-core atom MET VTx extensies moet nog geboren worden. Zo'n 16 core atom lijkt mij alleen nuttig als je erop kunt virtualiseren. Tot op heden zijn enkel de single core atoms voorzien van VTx extensies (doet mij een structurele reden vermoeden).
VT-x? (sorry, die term kende ik nog niet).

Maar het heeft klaarblijkelijk met marktsegmentatie te maken...
VTx lijkt mij niet nodig; webservers kunnen ook prima gewoon in meerdere threads draaien, dan is virtualisatie alleen maar extra overhead. het zou er veelzijdiger op worden wellicht, maar ook zonder VTx kan dit prima nuttig zijn - in precies de juiste niche, uiteraard!
Ons bedrijf maakt al 1U servers waar 4 atom moeerboardjes in zitten. Het blijkt dat voor specifieke webapplicaties dit de meest energie zuinige oplossing is. We verkopen deze servers aan een grote website. Ik geloof dus best dat Microsoft in bepaalde gevallen hier gelijk in heeft.
Is dit niet al eens gedaan (maar dan met meerdere procs)? Hier een server met 512 atoms:

http://arstechnica.com/bu...n-xeon-in-datacenters.ars
...the server provides the same SPECINT performance as a Dell Xeon server in one-fourth the space and at one-fourth the power.
Hmm, een zeer efficiente/zuinige CPU met veel cores, out-of-order execution en Atom-class single core performance? Klinkt alsof Microsoft eigenlijk een ARM Cortex-A15 wil...

[Reactie gewijzigd door styno op 28 januari 2011 15:13]

Of je knutselt gewoon een operating system in elkaar wat wel fatsoenlijk taken kan schedulen zodat je niet meerdere cores nodig hebt om je processen snel parallel af te kunnen handelen.
Ik denk niet dat de task scheduling van Windows onderdoet voor die van *n*x-OS'en. Als je dat wel vindt, mag je dat wel eens onderbouwen, maar waarschijnlijk kun je dat niet.
Ik pretendeer helemaal niet dat de task scheduling van Windows onder doet voor welk ander OS dan ook; ik vind het alleen raar dat dat je een voor het sneller laten functioneren van een systeem denkt dat meerdere langzame cores die geen Out-of-Order execution kunnen doen beter zijn dan een kleiner aantal snelle cores die dat wel kunnen. Zoals rvantwisk hieronder ook aan geeft gaat het vooral om de context-switches waarbij de meeste CPU-tijd verloren gaat. Zolang je echter geen real-time eisen aan je systeem hebt denk ik dat je met efficienter schedulen het aantal context-switches behoorlijk kunt minimaliseren door bepaalde berekeningen net wat meer tijd te gunnen.
Een context switch zoals ze dat zo mooi noemen blijft altijd veel CPU cycles vergen op het moment dat je veel data gaat verplaatsen. Deze cores hebben simpel weg veel level1 en level2 caches en snelle IO naar de HD nodig voor ronduit de meeste processen binnen een server omgeving.
Kan de laatste Linux kernel dat niet? Ik geloof zelfs dat er helemaal niet zoveel Windows webservers zijn.
Er zijn wel degelijk veel Windows webservers. Nog niet zoveel als dat er Linux-servers zijn, maar het worden er gestaag meer. Windows Server is al enkele jaren een meer dan volwaardig alternatief voor Linux, op het gebied van webhosting.
Daar de link in jouw profiel aangeeft dat je voor een bedrijf werkt dat 100% .NET serveroplossingen levert, en ik Windows alleen in durf te zetten voor het spelen van spellen denk ik dat onze meningen van elkaar af zullen wijken.

Voor een rustige website met een relatief klein aantal bezoekers zal het inderdaad om het even zijn welke serveromgeving je gebruikt; de klant ziet het verschil dan toch niet. Ik heb echter ook een maand geleden met een MS oplossing mogen werken, en daar viel het me op dat als ik op de achtergrond wat andere dingen aan het doen was dat simpele queries op de MSSQL-server als "select top 100 from bla" al ruim 4 seconden ging duren (de keuze voor een MS-oplossing was zoals uit de inleiding van mijn post zeer waarschijnlijk al duidelijk is niet mijn idee).

Voor websites die meer traffic gaan doen ga je het verschil wel merken. Tweakers.net draait niet voor niets op debian ;)
Ter info: technet en microsoft.com draaien windows op Hyper-V, met makkelijk meer dan 1 miljard bezoekers per maand.

En gebruikte je sql enterprise voor concurrent reads en writes?

Maw: wat men niet kent, niet bemint.
Je realiseert je dat een SELECT top 100 * statement niet per definitie licht hoeft te zijn? Hoe groot zijn de tabellen die er onder hangen? Zitten er veel JOIN's in je statement? ZIt er een ingewikkeld WHERE statement achter? Gebruikt je WHERE statement andere dure operaties? Bottomline: je TOP statement staat helemaal op het einde wat uitgevoerd wordt binnen je execution plan... :)

Verder kan ik me vinden in wat needless to say zegt :) Er zijn ook genoeg andere grote websites die draaien op Windows / IIS / MS-SQL.
heb je een bron ofzo met meer informatie over die stijging van windows webservers?
Servers, mainframes and supercomputers
The Oak Ridge National Laboratory's Jaguar supercomputer, until recently the world's fastest supercomputer. It uses the Cray Linux Environment as its operating system.[61][62]
Servers designed for Linux

Linux distributions have long been used as server operating systems, and have risen to prominence in that area; Netcraft reported in September 2006 that eight of the ten most reliable internet hosting companies ran Linux distributions on their web servers.[63] (since June 2008, Linux distributions represented five of the top ten, FreeBSD three of ten, and Microsoft two of ten;[64] since February 2010, Linux distributions represented six of the top ten, FreeBSD two of ten, and Microsoft one of ten.[65])
bron:wikipedia

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True