Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 23 reacties

Intel maakt zijn Xeon-chips met field-programmable gate array in het eerste kwartaal van 2016 beschikbaar, zo heeft de fabrikant bekendgemaakt. De processors komen als eerste naar specifieke partners, die daarop hun algoritmes kunnen aanpassen.

Diane Bryant, die bij Intel de datacentertak leidt, vertelde volgens Computerworld op de Structure-conferentie in San Francisco dat de processors met fpga in de socket passen van de huidige Xeons, waardoor bedrijven makkelijker moeten kunnen overstappen. De Xeons gaan volgens Bryant onder meer naar de grootste providers van clouddiensten.

Die providers kunnen berekeningen als die voor machine learning en data-analyse versnellen door de fpga's in te zetten in hun rekencentra. De fpga kan onder andere het geheugen op de chip aanspreken, waardoor een hybride chip sneller moet zijn dan een losse Xeon en fpga. Intel heeft hoge verwachtingen van fpga's als aanvulling op zijn huidige chip-aanbod. Het nam daarvoor afgelopen zomer Altera over voor 16,7 miljard dollar. Intel kondigde de Xeons met fpga's in de zomer van vorig jaar aan.

Intel verwacht dat tegen 2020 eenderde van de nodes bij datacenters fpga's bevat. Naast machine learning, of neurale netwerken, kunnen bedrijven die ook inzetten voor het versnellen van encryptie en compressie.

Intel Xeon fpga ISCA 2015Intel Xeon fpga ISCA 2015Intel Xeon fpga ISCA 2015

Moderatie-faq Wijzig weergave

Reacties (23)

Als FPGA ontwikkelaar is het natuurlijk fijn om te horen dat deze meer toegepast gaan worden. Meer werk! 8-)
Nu ben ik wel benieuwd in welke mate je als SW / FW ontwikkelaar toegang hebt tot dit FPGA gedeelte. Misschien kan je bijvoorbeeld ivm veiligheid slechts referentie images van Intel gebruiken.
Ook ben ik benieuwd naar de software support. FPGA's zijn zeer afhankelijk van de synthesis, place and route tooling (het FPGA alternatief van de compiler). De software van altera is... nou ja, zeg maar niet de gemakkelijkste in de omgang...
Zoals het er nu naar uit ziet worden deze Xeon met FPGA voorgeprogrammeerd uitgeleverd aan bepaald partners. Maar het toekomst beeld is dat in de ook software beschikbaar komt om dit in het veld te doen.
Maar zoals je aangeeft is FPGA programmeren nu noch erg complex, en kan je niet zomaar switchen of delen tussen software processen. Dus word de FGPA waarschijnlijk in de toekomst gebruikt voor CPU Firmware upgrades. Die b.v. support voor nieuwe video-codes toevoegt.
Intel has built custom chips for customers before. Last year it delivered about 15 unique designs, including processors for Facebook and eBay. But they involved relatively minor changes, such as disabling cores and adding extra I/O ports.

Integrating an FPGA (field-programmable gate array) with its Xeon chips is a step further. And in some cases, Intel will hardwire the instructions for the algorithm directly onto the Xeon itself, Bryant said.

It’s a new way for Intel to deliver custom chips, and this year it expects to deliver more than 30 unique designs, Bryant said. She was due to make the announcement at Gigaom’s Structure conference in San Francisco Wednesday.
http://www.pcworld.com/ar...-big-cloud-providers.html
Is het hele idee van een Field-programmable gate array niet dat dit makkelijk aanpassbaar is? Is dit niet meer een soort programmable gata array?
Dat klopt het is met software te programmeren hardware zo moet je het een beetje zien,
en dat 'makkelijker' aanpasbaar is natuurlijk inverhouding tot een fysieke chip die alleen aangepast kan worden door hem opnieuw te maken.
Ho ho, pas op, wat je citeert en wat je schrijft zijn twee verschillende dingen!

Wat je citeert gaat juist nog een stap verder naar custom-ASIC-implementering voor bepaalde klanten, waar Intel dus bepaalde algoritmes al in de processor inbakt met zijn "unique designs", en in bepaalde gevallen dit ook direct in de Xeon zelf inbouwt.

Een voorgeprogrammeerde FPGA heb je defacto weinig aan, het spannende is -juist- dat je jouw eigen algoritmes erop kan implementeren en die daardoor veel sneller kan laten lopen dan in software. Daarvoor heb je natuurlijk de bijbehorende Altera-toolchain nodig, tenminste momenteel.

Intel gaat die niet hardwiren, want waarom zouden ze dan Łberhaupt nog een FPGA meeleveren?
Ben toch wel benieuwd welke sector dusdanig geÔnteresseerd is in dergelijke rekenunits.

Op dit moment worden GPU voor ondersteunende zaken steeds meer gebruikt maar wat ook heel belangrijk is is dat ze steeds minder verbruiken. Aan de ene kant heb je de high-end modellen die van +150W komen, aan de andere kant heb je de processoren op mobieltjes die enkele wats trekken.
Aangezien elke normale pc zoiets dergelijks al dan niet op een soc heeft zitten verwacht ik dat de ontwikkeling daar in een stroomversnelling zal raken want steeds meer applicaties maken gebruik van de capaciteiten.
Was in het verleden met name games, nu zie je een steeds bredere range software een beroep op doen.

Kan overigens goed zijn dat een fpga de betere kandidaat is, maar als die dusdanig niche is dat de prijs heel erg hoog wordt dan zal het geen lang leven beschoren zijn.
Ik vraag me af in hoeverre je de FPGA zelf kan herprogrammeren. Voor simulaties e.d. kan het heel handig zijn om een FPGA te hebben. Het grote voordeel van een FPGA is dat hij heel flexibel is omdat hij herprogrammeerbaar is. Maar als Intel dat niet toestaat dan kunnen ze net zo goed een ASIC inbakken.

Een specifieke toepassing die ik zelf erg slim vind is hoe National Instruments een FPGA integreert in hun meetapparatuur. Met een FPGA kan je je data heel snel preprocessen en filteren waardoor je op een hele hoge frequentie kan meten.
http://www.ni.com/labview/fpga/
Dit is een FPGA op de PCIe bus geloof ik.

[Reactie gewijzigd door Mr_gadget op 19 november 2015 10:39]

Het is inderdaad een fpga op een PCIe bus. Met daar naast een ASIC die meetkaarten herkent en basis functionaliteit heeft. Mooi spul maar ook ontzettend duur. Er is ook wel de beperking dat je het met LabVIEW moet programmeren en dat maakt het programmeren wel makkelijk maar is niet de meest efficiŽnte vorm. Hierdoor past er veel minder code op dan met vhdl maar ben je ook veel sneller klaar *mits je code op de fpga past, veel hercompilatie frustratie komt naar boven*

Ik zie bij meet apparatuur wel voordelen van dit soort chips zeker gezien mijn ervaring met cRIO's waar jij naar verwijst. Echter dit is niet zo makkelijk te doen voor de gemiddelde ict'er. Ik vermoed dat je bit files krijgt die je in de fpga's kan schieten. Maar het voordeel dat je een chip on the fly kan wijzigen als je dat wil zie ik nog niet echt mijn vader doen.

Dit lijkt me vooral handig voor modulaire computer systemen. On the fly wijzigen van je fpga gaat hem niet per definitie sneller maken. Wel zou je functionaliteit zoals protocol afhandeling er in kunnen gooien. Maar als je toch al gpu ontwikkelingen doet waarom dan niet gelijk het maximale uit de chip halen bijv. Intel gooit het er niet in als een nice to have en zal er wel iets mee van plan zijn maar ik denk niet dat wij als gebruikers er echt toegang toe krijgen.
ASIC is minder handig in wat toch een kleine markt zal blijven. Dan moet je voor elke klant een andere chip bakken, dat word duur.
Het lijkt me niet dat Intel het helemaal niet toestaat om te herprogrammeren dan is het weer veel minder interessant.
- niet alle algoritmes zijn op een GPU even efficiŽnt als op FPGA.
- een GPU zal waarschijnlijk meer data kunnen verwerken, maar een FPGA zal waarschijnlijk sneller zijn. Dus beter als je niet zoveel data hebt, en lage latency belangrijk is.
- een losse GPU kost heel veel meer ruimte.
Wat is efficiŽnt?

De tegra x1 verbruikt op dit moment rond de 10W, en in 2016 komt er een nieuwe versie van 16nm die in iig zuiniger is.

Daar heb je een capaciteit van 512 en 1024 gflops bij bepaalde berekeningen. En natuurlijk is het geen eerlijke vergelijking, maar in hoeverre kun je de capaciteit gebruiken. Kosten, verbruik, gebruiksvriendelijkheid in een vergelijking kunt meenemen kan het stukken interessanter zijn aangezien de tegra in veel grotere getallen wordt geproduceerd.

Zo wordt de tegra oa al gebruikt in zelfrijdende auto's.
Het gaat hier om cloud en data-center applicaties. Dus ergens richting het HPC-werk, maar weer niet zo dat je puur alleen de rekenkracht van 100en GPUs kan/wil gebruiken.
Hoezo veiligheid? Word de TLB in de processor niet gebruikt voor QPI? (Om de FPGA af te schermen van geheugen waar het niet bij mag.)
Dat ligt aan de implementatie: Wanneer de FPGA gebruikt wordt voor hardwareversnelling, zal de memory interface misschien niet door de processor lopen, omdat de geheugenbandbreedte daarvan te beperkend zal zijn.
We zullen het zien wanneer Intel de architectuur van de nieuwe procs bekend zal maken...

edit: ik lees nu over de QPI interface. Toch door de CPU heen dus ;)

[Reactie gewijzigd door MeMoRy op 19 november 2015 11:07]

Ik ben benieuwd hoe Intel de fabrikage van FPGA logic en CPU logica weet te combineren.

FPGA logica stelt heel andere eisen aan het chip process dan een CPU core. Vergelijk het met het integreren van flash geheugen in een chip, dat leidt ook tot moeilijkheden omdat flash geheugen heel specifieke processtappen nodig heeft om de gates precies goed te krijgen, wat weer conflicteert met andere componenten.

Als je kijkt naar de Zynq en MPSoc van Xilinx, en Altera's oplossingen, dan zie je dat er aan de FPGA logica vrijwel geen consessies zijn gedaan, maar de ARM CPU is "substandaard" in vergelijking met CPU-only chips. De standaard Zynq klokt de Cortex-A9 maar op 666MHz (max 1GHz in de duurste speedgrade), en de Altera zelfs op maar 400MHz. Ook al performt dat factoren beter dan een CPU in logic (microblaze enzo), het is toch een stuk minder dan een logicavrije chip van Freescale en vergelijkbare fabrikanten, die hun A9 meestal tussen de 1 en 1,5 GHz weten te klokken, en daarbij ook betere periferals weten te leveren.

Ik ben daarom benieuwd welk pad Intel volgt. Zijn er concessies gedaan, en aan welke componenten? Zo te zien is de CPU gewoon volledig, dus ben ik benieuwd wat ze aan de FPGA kant gedaan hebben.

Ook spannend om te zien trouwens dat er een nieuw veld van competitie begint te ontstaan... Xilinx krijgt hier misschien wel een zware dobber aan.

Edit: Nader onderzoek wijst uit dat het gaat om twee chips in een package, en niet om een geintegreerde chip. Dat verklaart ook dat Intel hier snel mee kon komen, eigenlijk is de FPGA gewoon een soort "insteekkaart". De enige nieuwe ontwikkeling is eigenlijk alleen maar de QPI interconnect tussen de CPU en FPGA.

Op de Zynq bijvoorbeeld delen de ARM en de FPGA de DDR memory controller(s). De FPGA heeft zelfs lees- en schrijftoegang tot de L1 en L2 caches van de ARM.

[Reactie gewijzigd door cdwave op 19 november 2015 10:21]

Bij de Altera Cyclone V SoC zie je bijvoorbeeld ook dat de fabric/het proces op die manier ook de geheugensnelheid limiteerd. De memory controller draait -ondanks dat DDR3 ondersteund wordt- op max 400 MHz.... Dus je DDR3-1600 wordt effectief DDR3-800... nogal een bottleneck.
Jep.

De nieuwere generaties komen wel weer met betere specs, maar blijven toch een generatie achter lopen op de mainstream ARM systemen. De MPSoc (Zynq opvolger) die begin 2016 te koop zal zijn heeft straks wel een 64-bit quad ARM Cortex-A53 met DDR4 ondersteuning, toch loopt die weer langzamer dan de rest.

Dat wordt dan wel weer gecompenseerd door de brute rekenkracht die je uit de FPGA kunt halen. Als je uitgaat van dat je 4 DSP units voor een floating-point bewerking nodig hebt, dan heeft een Zynq 7030 bijvoorbeeld ongeveer net zoveel teraflops per seconde in huis als een vette I7, maar dan met een TDP van nog geen 7W.

Gelukkig kun je de memory bandbreedte beperking aan de FPGA kant wel oplossen. Je zou bijvoorbeeld een HMC (hybrid memory cube) aan de gigabit transceivers kunnen koppelen, en dan heb je ineens een memory bandbreedte waar zelfs videokaarten alleen maar jaloers naar kunnen kijken. Het prijskaartje van ruim 500 euro voor 4GB RAM zal vooralsnog iedereen behalve de meest standvastige performancejagers afschrikken vrees ik. Op termijn zal HMC wel mainstream worden, in navolging van de algehele "serialisatie" trend.

[Reactie gewijzigd door cdwave op 19 november 2015 11:21]

De CPU en FPGA zijn nog twee losse chips, dus ze zijn nog niet volledige geintegreerd in ťťn chip. De door jouw genoemde fabricageproblemen zijn dan nog niet aan de orde.
Hmm interessant is dat op de Altera website ook nog steeds de FPGA-ARM oplossingen staan. Dus we kunnen dadelijk de Altera FPGA met beide processors aanschaffen.
Uiteraard. FPGA/ARM combo's vind je vooral in embedded applicaties, de Xeon is nou niet echt de eerste CPU waar je aan denkt als je een slimme sensor of quadcopterbesturing gaat maken.
Bovendien is de ARM versie een enkele chip. Deze Xeon is gewoon een losse CPU met een losse FPGA met een interconnect ertussen, samen in eenzelfde blokje epoxy.

[Reactie gewijzigd door cdwave op 19 november 2015 10:23]

Waarom denk ik altijd als eerste hieraan..
Problemen met afkortingen ?
Goed nieuws voor ons FPGA ontwikkelaars :)
Dit brengt veel leuke mogelijkheden, vooral de lage latencies tussen CPU en FPGA gaan een flinke bijdrage kunnen leveren aan verdere versnelling van algoritmes.
Ik ben ook erg benieuwd of/wanneer Intel dit ook gaat integreren met het nieuw aangekondigde phase-change geheugen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True