Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 28, views: 11.687 •

De eerste reeks Xeon-processors voor servers en workstations met de Haswell-architectuur zou de E3-1200-serie worden. Deze processors maken deel uit van het Denlow-serverplatform en zullen herkenbaar zijn aan de E3-1200 v3-naam.

De opvolger van de huidige generatie microarchitectuur voor Intels processors heeft de codenaam Haswell gekregen en zal in 2013 de Ivy Bridge-processors opvolgen. Naast laptop- en desktop-processors zullen ook de voor servers bedoelde Xeons een update krijgen, en de eerste lichting met Haswell-architectuur aan boord zou de E3-1200 v3-serie worden. Deze serie zou in vier verschillende versies, met evenzoveel toepassingsgebieden, beschikbaar komen. Het Denlow-platform, met Haswell-Xeons en de Lynx Point-chipset, moet medio 2013 verschijnen. De Xeons zijn voorzien van geheugencontrollers voor ddr3-geheugen tot 1600MHz.

De voor servers bedoelde E3-1200 v3-Xeons komen, volgens CPU-World, beschikbaar in varianten met een tdp van 80 en 95W, met ieder vier hyperthreading cores. De gpu is niet geactiveerd in deze Xeons. Voor workstations zouden versies komen met de gpu gedeactiveerd en met een tdp van 95W, en een versie met GT2-gpu en een tdp van eveneens 95W. De GT2-gpu is de midrange-variant van de drie gpu-versies die met Haswell geleverd zouden worden.

In de low-power-varianten van de E3-1200 v3-serie zou een eenvoudiger GT1-gpu of, in een tweede en derde versie, geen gpu geactiveerd zijn. Twee quadcore-ontwerpen zouden een tdp van 45W en 25 tot 30W krijgen, terwijl een dualcore-versie een tdp van 15 tot 20W zou krijgen. Twee ontwerpen voor virtual hosted desktop-systemen zouden opnieuw met vier cores en de GT2-gpu zijn uitgerust, en tdp's van 95 en 65W krijgen. Met uitzondering van de zuinigste low power-Xeon, die twee hyperthreading-cores en 3MB cache heeft, zijn alle E3-1200 v3-Xeons voorzien van vier hyperthreading cores en 8MB cache-geheugen.

Xeon E301200 v3-serieCores (threads)Geïntegreerde gpuL3-cacheTdp
Server 4 (8) GT0 8MB 95W
Server 4 (8) GT0 8MB 80W
Workstation 4 (8) GT0 8MB 95W
Workstation 4 (8) GT2 8MB 95W
Low power 4 (8) GT1 8MB 45W
Low power 4 (8) GT0 8MB 25W - 30W
Low power 2 (4) GT0 3MB 15W - 20W
Virtual hosted desktop 4 (8) GT2 8MB 95W
Virtual hosted desktop 4 (8) GT2 8MB 65W

Reacties (28)

Waarom zijn de GPU's niet actief in de server-variant? Met de opkomst van OpenCL en GPGPU in het algemeen kunnen GPU's ook in servers nuttig zijn.
Hoe nuttig is een zwakke GPU voor numberchunching? Het kan zijn dat ik het mis heb, maar geintegreerde GPU's zijn vooral bedoeld voor low-power basics, niet voor zware rekentaken.

[Reactie gewijzigd door Dykam op 7 september 2012 13:49]

Mijn Radeon 6850-GPU, toch geen monster-kaart, is met LuxMark sneller dan mijn i7 2600 CPU, die ook nog eens een stuk duurder was dan de complete videokaart. De GPU's van de actuele Intels zijn niet bepaald misselijk en zouden wel degelijk flinke extra performance bieden.

Bedenk dat "zware rekentaken" vaak ook niet meer is dan simpele sommetjes heel vaak uitvoeren. Kan een GPU prima, zo laat LuxMark zien.
Lies, damn lies and Benchmarks. Let op dat CPU vs GPU benchmarks vaak alleen het rekenen tellen, en niet het laden/storen van data.

Maar nog afgezien daarvan, die kaart is tien tot twintig keer zwaarder (zoniet meer) dan een geintegreerde GPU.
Je onderbouwt het zelf ook niet. Ik haalde LuxMark aan, een real-world renderer dus m.i. redelijk accurate test. Daarbij blinken GPU's nog niet eens uit in dit soort software, dus mogelijk is het zelfs een soort van worst-case-scenario.

Anyway. De GPU van mn E-450 nettopje haalt inderdaad slechts 10% van de performance van de 6850. Maar zelfs daar is het een voordeel: CPU: 36. GPU: 56. CPU+GPU gaf helaas een CL_ERROR_OUT_OF_RESOURCES, maar in principe is de CPU nog vrij om andere dingen te doen als de GPU aan het werk is. Overigens moest de GPU in mijn geval ook nog gelijktijdig een full HD scherm van pixels voorzien...

Nou gaat het mij ook wat ver om de E-450 te vergelijken met een high-end server CPU, maar Intel heeft GPU's op de plank liggen die een stuk krachtiger zijn dan die van de E-450. Ik zou de toegevoegde waarde van deze embedded GPU's beslist niet zomaar wegvlakken.

Ik vraag me af wat Intels beweegredenen zijn om het ding te disablen - overigens vraag ik me dat ook bij m'n i7 af: omdat ik een moederbord heb zonder onboard video kan ik de GPU in de CPU, waar ik wel voor betaald heb, gewoon *niet* gebruiken voor transcoding of OpenCL.

[edit]: De GT3 GPU zou 20-40 execution units hebben. De GPU van de E-450 heeft er 2, op slechts 506MHz.

[Reactie gewijzigd door Fuzzillogic op 7 september 2012 16:17]

Qua rekenkracht kan een IGP best wat toevoegen aan een CPU, zeker. Maar het punt is: voor veel taken heb je gewoon geen GPU nodig, en voor de taken waarvoor het echt een voordeel is om het op een GPU te doen, is een IGP gewoon héél sloom vergeleken bij videokaarten. Ik kan me dus nauwelijks situaties voorstellen waarbij een IGP een geschikte keuze is voor intensief gebruik van numbercrunching. Of hij is overbodig, of hij is te licht.

En relatief gezien heeft een E-450 juist een veel sterkere GPU dan een intel quadcore. Het verschil in rekenkracht tussen de IGP en CPU is bij de fusions vrij groot, bij intel is dat verschil kleiner.

[Reactie gewijzigd door bwerg op 7 september 2012 16:44]

Geintegreerde GPU's hebben rond de factor 10 minder bandbreedte naar de RAM en mogen maar gedeelte van power envelope gebruiken van de cpu.

Dus als cpu 80 watt is dan zal geintegreerde GPU zeker niet meer zijn dan een watt of 20,
terwijl de stand alone gpu simpeltjes over de 200 watt heenkomt.

Dus zelfs in dezelfde processtechnologie zal een geintegreerde GPU voorlopig nog tekort schieten voor rekentaken.

Daar op servermachines minder spelletjes gespeeld worden en de CPU's zwaar belast worden, is een geintegreerde GPU simpelweg minder interessant als verkoopargument en laten ze 'm daarom weg.

Als je in een serverprocessor die watts die de GPU inneemt vervangt door een paar cores meer of het iets hoger klokken van de CPU, dan is dat natuurlijk winst voor het bedrijf in kwestie, die helemaal die geintegreerde gpu niet gebruikt.
Hoe die van intel het doen weet ik niet maar de AMD APU's kunnen toch wel aardig crunchen. Performance is vergelijkbaar met de midrange kaarten van de vorige generatie. Niet slecht als je het mij vraagt.

Ik zie het in de toekomst echt wel gebeuren dat die GPU's in servers ook gebruikt kunnen worden. Maar de software is daar nu gewoon niet klaar voor. Of moet heel specifiek zijn. Maar dan heb je het al weer eerder over Super Computers en niet over standaard blade servers.

[Reactie gewijzigd door Astennu op 7 september 2012 15:22]

Omdat de geintegreerde GPU de moete niet waard is voor echte OpenCL en GPGPU toepassingen op een server, die is immers veel te zwak. Daar heb je oa nvidia's Fermi kaarten voor.

Geîntegreerde GPU dient echt voor video accelleratie en rendering van desktops, webpages, etc.
Intel's strategie is om de GPGPU functionaliteit in het cpu-deel onder te brengen, via (oa) de AVX2 units.
Probeer dit eens:

Oudere C2D met 8GB ram en chipset-video, dan AutoCAD 2012 draaien. Ga na iedere handeling eens een bakje koffie halen... dan zit je tenminste niet achterover te leunen. (voor het nieuwe systeem binnen was, 2 dagen mee gewerkt)

Xeon met 16GB ram en geïntegreerde GPU, dan AutoCAD 2012 draaien. Lukt, maar je moet geduld hebben. (tijdelijke oplossing toen de graka kapot was)

Xeon met 16GB ram en quadro graka, dan AutoCAD 2012 draaien. Gaat als de gesmeerde bliksem. (na reparatie)

Ik ben benieuwd wanneer Intel zo ver komt dat ook AutoCAD hier goed op draait, zeker als de GPU en CPU taken van elkaar kunnen overnemen (DX10+)!
Dan zal een multicore processor tenminste nut hebben met AutoCAD!
True, m'n pa heeft op z'n workstation op't werk een Xeon met Quadro SLI als 3D designer, en nog klaagt ie over een te trage computer ^^
Let wel op dat de variant voor "Virtual Hosted Desktops" wel degelijk ook bedoeld is om in een server te stoppen. Een server die virtuele desktops aanbiedt en waarbij het dus wel handig is als je een GPU in je server hebt.

In de gevallen waarbij je dus een server met OpenCL en GPGPU toepassingen wilt aanschaffen en denkt dat een GPU handig is kun je dus voor die optie kiezen. Maar waarschijnlijk zal je dan wel CPU kracht in gaan ruilen voor de GPU. Maar het lijkt erop dat Intel je dus de keuze geeft om CPU met of zonder GPU te kopen.

Voor de meeste server taken is de GPU echter nutteloos, dus zal men in die gevallen de versie zonder GPU kopen. De groepering van Intel is dus voornamelijk een indicatie van waarvoor men daar denkt dat de CPU met meest geschikt is. Niet de enig mogelijk manier om de chips te gebruiken
GPGPU is wat mij betreft totaal niet van toepassing op gpu die ingebakken zit in de cpu maar op aparte gpu's, dus totaal nutteloos.
Ook headless servers moeten een GPU hebben, dus los echt logisch vind ik het niet dat ze gedeactiveerd zijn.
Ik dacht dit in eerste instantie ook, maar volgens mij leveren veel serverbouwers juist eigen grafische oplossing omdat ze die dan goed kunnen integreren met hun Virtual Console. Ik kan me voorstellen dat dit met een geintegreerde GPU lastiger integreert (al is het maar omdat je voor elke generatie CPU het wiel opnieuw moet uitvinden).
Als je meerder cpu in één server hebt heb je niet meerdere videokaarten nodig. Neemt ruimte in beslag
Deze reeks is dan ook niet als multi-CPU inzetbaar. In dat opzicht is de on-chip GPU nog handig. Maar, zoals ook aangehaald, is de reden waarschijnlijk de intergratie van een extra GPU met een remote management oplossing.

Misschien moet intel daar nog wat meer aan werken, mag van mij part gerust op de desktop komen.
En al zeker bij budget server CPU's als deze E3-1200-serie die niet bedoeld zijn om in een mainframe te huizen, maar gewoon in een desktop-kast.
Een aparte gpu zal meer verbruiken, neemt meer plaats in en maakt het duurder. Daarenboven bieden de meeste BIOS'en de mogelijkheid om de igp uit te schakelen als dat nodig zou zijn.
Hier gebruiken we tientallen computerboardjes in een rack, er zit een VGA connector op maar die gebruiken we nooit. De boarden booten en laden software via netwerk en doen hun werk. Eventueel een webservertje op de computer om op afstand wat instellingen te doen, of anders via een teminal.

Niet alle computers hebben een GPU nodig :)
Dit vind ik vreemd, waarom brengen ze eerst de server versies uit?
Ik zou denken dat ze eerst de particuliere versies zouden uitbrengen om er dan zéker van te kunnen zijn dat alles stabiel en foutloos draait op servers... Niet dat ze CPU's zouden uitbrengen waar nog problemen mee zijn, maar vind dit een ligischere volgorde...
Dat stelt het artikel ook niet. Daar staat
De eerste reeks Xeon-processor
Xeon chips zijn server processors. Desktop en Notebook chips heten core i,pentium, celeron etc etc. Bij de Xeon heb je verschillende product reeksen gebaseerd op het aantal ondersteunde sockets. In dit geval lijken het chips voor 1 socket (oftewel rebranded core ix chips) en volgen de versies voor 2 en 4+ sockets later.
Eh?

De eerste Haswells worden uitgebracht in de Xeon reeks.
=
De eerst volgende architectuur wordt uitgebracht in de server reeks.

Mijn vorige vraag blijft dus nog steeds gelden, waarom de server markt eerst bedienen met een nieuwe architectuur en daar zien of alles goed draait op langere termijn en dan eventueel aanpassingen doen en de particulier markt bedienen? Ik zou het andersom doen...
Dit is gewoon een conclusie die Tweakers onterecht heeft getrokken. De desktop reeks staat ook geplanned voor Q2 volgend jaar.

Dus totdat er datums geplakt worden aan de desktop en server reeks Haswell processoren is het afwachten welk platform eerder zal zijn.

[Reactie gewijzigd door knirfie244 op 7 september 2012 22:42]

Ahzo, dan wacht ik mee af!
Niet dat er een interresante proc gaat tussen zijn voor mij, maar vind vooruitgang altijd boeiend!
Och och, wat gaat de techniek ook verschrikkelijk snel :(

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSalaris

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste website van het jaar 2014