Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel plaatst vier Xe-LP-laptop-gpu's op PCIe-insteekkaart voor servers

Intel kondigt een insteekkaart voor servers aan met daarop vier Xe-LP-gpu's. Het gaat om de gpu's die Intel ook integreert in zijn Tiger Lake-processors en gebruikt voor de Xe Max-gpu voor laptops. De servervariant is gecombineerd met 8GB Lpddr4 per gpu.

Volgens Intel is de H3C XG310-insteekkaart bedoeld om games in servers te draaien en die vervolgens naar mobiele apparaten te streamen. Intel noemt als voorbeeld een samenwerking met het Chinese Tencent, dat een streamingversie van Arena of Valor aanbiedt. Volgens Intel kan één insteekkaart zestig streams van de game gelijktijdig verwerken in een 720p-resolutie met 30fps.

De XG310-insteekkaart gebruikt de PCIe 3.0 x16-interface en op renders is te zien dat de kaart één 8-pinsstroomaansluiting heeft. Op het pcb zijn vier Intel Xe-LP-gpu's geplaatst, ieder gecombineerd met 8GB Lpddr4-geheugen, voor een totaal van 32GB. De Xe-LP-gpu's hebben ieder 96 execution-units en worden op 10nm gemaakt.

Intel gebruikt dezelfde gpu al geïntegreerd in zijn duurste Tiger Lake-processors en als de losse Xe Max-gpu voor laptops. Laatstgenoemde heeft hogere kloksnelheden dan de igpu-variant, maar wat de kloksnelheden van de serverversie zijn, noemt Intel niet. Wel valt op dat de serverversie Lpddr4 gebruikt in plaats van het snellere Lpddr4x bij de laptopvariant. De Xe Max voor laptops heeft echter maximaal 4GB vram.

Ondanks het gebruik van vier gpu's op één insteekkaart, is de grafische rekenkracht beperkt. Intel noemt geen prestaties zoals het aantal teraflops, maar bekend is dat het om laptop-gpu's gaat die individueel ongeveer gelijk presteren aan Nvidia's MX350-gpu. Nvidia en AMD maken ook gpu-insteekkaarten voor servers. Die bieden veel meer rekenkracht en worden bijvoorbeeld gebruikt voor cloudgamingdiensten als Google Stadia en GeForce Now.

Intel heeft ook krachtige Xe-gpu's voor servers op zijn roadmaps staan, maar die komen later uit. De voor nu gebruikte Xe-LP-gpu is de langzaamste variant. Daarna volgt een Xe-HPG-variant, die bedoeld is voor losse videokaarten. De eerste testchips daarvan zijn geactiveerd. De Xe-HP- en Xe-HPC-varianten zijn de krachtigste Intel-gpu's, die zijn bedoeld voor servers en supercomputers.

Intel H3C XG310

Door Julian Huijbregts

Nieuwsredacteur

11-11-2020 • 15:01

29 Linkedin

Reacties (29)

Wijzig sortering
Het grootste voordeel van Intel op de server GPU markt, is dat NVidia wat meer concurrentie krijgt. De licentievoorwaarden die NVidia stelt aan hun software zijn nogal kut, en die dwingen fabrikanten en serverboeren om extra dure kaarten te kopen. Als NVidia zijn dominantie verliest, dan zal hier hopelijk ook een einde aan komen.

Edit. Mooie toevoeging met van Phoronix:
https://www.phoronix.com/...em=intel-server-igc&num=1

Lijkt erop dat Intel direct de strijd aan gaat met NVidia door de drivers direct aan Linux toe te voegen, waardoor de totale Cost Of Ownership klanten over de streep moet trekken. Sinds 2018 zijn ze bezig om hun complete Graphics stack op Linux aan te laten sluiten in voorbereiding op deze bekendmaking. Op dit moment zou 60% van de code identiek zijn zonder verschil in compute performance.

[Reactie gewijzigd door Eonfge op 11 november 2020 16:24]

Als ik het goed lees, zitten er in 1 server 2 van deze kaarten, en daar kunnen 120 gamers tegelijk op cloud-gamen (grafisch niet al te complexe spelletjes).

https://semiaccurate.com/...ificant-software-updates/

Dat wordt voor NVidia erg vervelend, want klanten die alleen lichtere spellen spelen, hoeven dan überhaupt geen losse videokaart meer te kopen.

[Reactie gewijzigd door kidde op 11 november 2020 19:22]

andere markt. 1 nvidia kaart is sneller dan een dozijn van de intel gpu's.
Natuurlijk is het geen volledig andere markt, NVidia verkoopt veel MX350-achtig low end spul. Ik had vroeger een GeForce 610 (ja ik weet het... Bagger). Nu een laptop met Quadro 2200 die maar amper AutoCAD draait (inderdaad, ik ben de oprechte koning van NVidia goedkope bagger).

En die heb je nu dus mogelijk niet meer nodig; want zo'n genoemde NVidia kaart is niet sneller dan Intel cloud GPU's.

Verder zal duidelijk zijn, dat met de ontwikkeling van 5G de prestaties van cloud games alleen maar dichter bij die van discrete kaarten komen; nu low-range maar mid-range kon nog wel eens gaan volgen. Vooral voor CAD applicaties gaat NVidia het enorm voelen, als mensen 3D modelletjes op Intel Cloud GPU's kunnen bekijken in plaats van peperdure bagger-Quadro's.

[Reactie gewijzigd door kidde op 11 november 2020 20:24]

Om over AMD maar te zwijgen. Die hebben misschien een keer 3 kaarten die überhaupt SR-IOV ondersteunen. Iets dat je bij dat soort toepassingen nog wel eens goed kan gebruiken.
Niet alleen Nvidia, ook AMD. Concurrentie is goed. Twee keuzes (duopolie) niet. Daarnaast maakt Intel uitstekende drivers. Hun NICs en WLAN chips bijvoorbeeld werken uitstekend op Linux (als je server, embedded, mobile, en supercomputer, en desktop bij elkaar optelt dan is Linux van minstens even groot belang als iOS/macOS en Windows). Jammergenoeg 1) Nvidia gebruikt proprietary technieken als CUDA 2) ze hebben net ARM overgenomen...
Het is toch niet zo heel raar dat je extra geld probeert te rekenen op het moment dat iemand bedrijfsmatig geld gaat verdienen door je product te gebruiken.

Dat is bij Intel voor in mijn ervaring geval niet anders dan bij Nvidia. Verschil met de cloud is vermoedelijk dat daar extra marge op de overboeking wordt gegenereerd. Als jij een quadro in je systeem hebt zitten dan staat die het grootste deel van de dag niks te doen en staat vermoedelijk 16 uur per dag uberhaupt niet aan. In de cloud kan iemand anders er op dat moment nog wat leuks mee doen. In theorie kan het dan goedkoper. In de praktijk moet je vaak de som maar eens goed doen wat je na 3 jaar maandelijks afdragen hebt betaald. Valt vaak tegen.
Het is vooral raar omdat NVidia extra geldt vraagt voor hardware, middels software beperkingen. Dat is inderdaad niet iets wat veel voor komt in de IT en NVidia heeft daarin ook een unieke, controversiele, status.

Je mag een Intel of AMD CPU of GPU voor alle doeleinden instellen die jij wilt, zeker als je gebruik maakt van Linux. De Linux voorwaarden verbieden discriminatie op grond van gebruikersdoel, dus daarom zie je daar ook veel servers mee uitgerust. Als jouw gebruik van de hardware commercieel is, dan ben je Intel of AMD niets meer verschuldigd dan de hardware kosten. Eigenlijk ook wel logisch. Als jij vanaf jouw thuis computer nu werk verricht, dan hoef je daarvoor ook niet extra geld te betalen aan Intel.
Intel heeft natuurlijk hun Xeon aanbod dat een vereiste is voor o.a. ECC support. AMD doet dit bij Threadripper (Epyc als je nog meer geheugen nodig hebt) en hebben bijvoorbeeld de Ryzen Pro varianten met extra firmware features met o.a. remote update.

Al het bovenstaande zijn kunstmatige barrières. Heb je die spullen nodig om productiever te zijn dan is het idee dat je baas de portemonnee trekt. Vaak profiteer je als consument van die kunstmatige segmentering doordat het grote geld in de zakelijke markt kan worden verdiend. Als je het als semi-pro zelf moet financieren is het natuurlijk allemaal wat minder tof. Maar vreemd vind ik het segmentatie systeem niet. Ik kan de logica ook wel begrijpen. Als ik een product zou uitbrengen waar iemand anders vervolgens miljoenen mee verdiend dan zou ik ook wel een graantje willen mee pikken :P.

[Reactie gewijzigd door sdk1985 op 13 november 2020 02:40]

ook leuk voor virtual desktop virtualisatie ipv tesla
Dit is precies waar ik ook aan zat te denken. Aangezien er toch geen AMD of Nvidia chips met SR-IOV uitkomen die een beetje te betalen zijn, zou dit niet eens zo gek zijn.

Nu maar hopen dat het niet een smak geld gaat kosten.
idd zou me een pak helpen als dit zowel betaalbaar is en beschikbaar is als losse kaart.
Oh,... en dan het liefst zonder die brakke userlicense van NV......
Ik vraag me af wat het voordeel van deze oplossing is t.o.v. een kaart met één krachtige GPU en SR-IOV. Dat lijkt mij veel flexibeler.

Sowieso lijkt Xe steeds later pas echt in de markt gezet te gaan worden. Ik begin mij af te vragen of intel de lange adem heeft die nodig is om een relevante marktpositie in te kunnen nemen.

[Reactie gewijzigd door ocf81 op 11 november 2020 16:02]

Gezien ze ook de iGPs vormen voor Intel denk ik dat een redelijke afzet wel aardig gegarandeerd is van de architectuur. Dat is in mijn ogen toch wel het grote verschil met de vorige poging, toen het echt een losstaande productlijn was haast.
De huidige prestaties per watt zijn in orde, getuige de prestaties van de Iris Xe MAX. Maar over een jaar zal dat alweer achterhaald zijn. AMD timmert hard aan de weg om koploper te worden, wat ook blijkt uit de sprong die ze gemaakt hebben met RDNA2. Het moet nog blijken wat Xe HPG op gaat leveren, maar als ze te lang wachten zijn ze in die markt gewoon niet competitief. Ik vrees het ergste. Misschien dat ze er voor de HPE markt wat beter voor de dag komen, omdat die andere eisen stelt die wellicht makkelijker ingevuld kunnen worden met meer chips op een kaart.

[Reactie gewijzigd door ocf81 op 11 november 2020 16:39]

Dat zijn 15 streams (games) tegelijk op 1 laptop GPU? Mis ik iets of kan er enkel Doom (bij wijze van spreken) op gespeeld worden?
Ik denk niet dat de game er 15 keer op gerenderd kan worden. Alleen het encoderen van de stream vermoed ik.
Ik denk, gezien het feit dat deze kaart zich focussed op servers dat het hier om 15 shared GPU streams gaat voor terminal server en VDI. Denk niet gelijk aan gamen, maar aan het vloeiend weergeven van windows menu's en office werkzaamheden. (ja, office is een GPU grootgebruiker)
Natuurlijk gaat het om gaming! Tencent is de grootste computerspellen-boer ter wereld (mobiel meegeteld). Zij zijn juist de ontwikkel-partner van Intel bij dit project. Intel boekte Q4 '19 een record-winst, dat kwam m.i. voornamelijk door de mega-kudde Intel server meuk die Tencent dat kwartaal voor hun serveer-boerderij kocht.

https://www.cnbc.com/2019...gaming-platform-test.html

Wat Tencent bijvoorbeeld wil, is dat je op de smartphone spellen kan spelen die op hun servers op Xe gerenderd worden.

[Reactie gewijzigd door kidde op 11 november 2020 19:32]

Het staat direct in het artikel dat het over gaming gaat. Bij streaming betekent dat dus volledige rendering op de server.

Vandaar dat ik zeer benieuwd ben hoe ze het klaar spelen om 15 games tegelijk op 1 mid-end GPU te draaien..... G3DMARK van deze GPU is ongeveer 4500 terwijl een 'oude' RTX 2070 super ruim 18000 scoort. Ik zou denken dat 15 keer 720p @30fps voor zo'n RTX 2070 super al behoorlijk zwaar is.
Als Intel deze chips al bakt in grote aantallen kan de prijs veel lager zijn.

Je moet misschien een paar extra kaarten in je server steken voor gelijke performance voor minder geld.
Is dit nu waar ze raja koduri voor hebben ingezet daar bij intel?
Zou dit een Terminal Server (RDP) gebruiker een betere MS Teams video ervaring kunnen geven? Dat is bij ons nu nogal slecht. (Tips zijn welkom)
Dat zou hier zeker voor kunnen gaan werken inderdaad. Wij adviseren onze gebruikers atm om Teams lokaal er naast te draaien, ook omdat passthrough van audio en video gewoon een stuk lekkerder werkt als het op de onderste laag van je systeem draait ipv door de trechter van RDP/Citrix.
Maar als je fullscreen werkt, dan kunnen de gebruikers niet zo makkelijk bij het start menu van locale pc. Hebben jullie dit kunnen uitleggen aan de gebruikers?

Onze gebruikers zijn helaas niet zo “computer slim” om dat concept te snappen, ik heb al moeite om ze fatsoenlijk te laten uitloggen ipv klikken op het kruisje van de RDP client |:(
Helaas nog steeds helemaal niets over SR-IOV/GVT. Daarmee kan je 1 enkele GPU opdelen en aan meerdere virtuele machines geven. De huidige Intel HD chips ondersteunen dit, daarom heb ik enige verwachting dat de nieuwe GPU lijn dit ook doet. Maar ik weet dat niet zeker. Bij Nvidia moet je daarvoor de GRID lijn hebben, waarbij je nog wordt geacht een of ander abonnement af te nemen en aan allerlei voorwaarden vastzit. AMD heeft een keer drie kaarten die dit ondersteunen, en dan ook enorm dure. Voor een homelab of thuis server is dat onoverkomelijk duur. Intel ondertussen ondersteunt het op chips die niet eens krachtig genoeg zijn om er echt wat mee te doen. Een Intel Xe-HPG kaart met deze functie zou voor een bepaalde groep mensen ideaal zijn.
Wij spelen op kantoor met zelfbouw VDI oplossingen, ook daar zijn deze kaarten, mits SR-IOV/GVT supported is, zeer interessant voor als ze krachtig genoeg zijn voor CAD applicaties. We draaien nu met een oude FirePro 7150x2 die in de basis goed werkt, maar al een tijd toe is aan vernieuwing.
Nou.... ik gebruik veel OpenCL en moet wel ff kwijt dat de prijs/performance van de Intel iGPUs stiekem best wel erg goed begint uit te zien. Voor games e.d. zou ik de Intel voor streamen ed. gebruiken, niet voor het echte werk ivm ontbrekende killer features.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True