Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 53, views: 24.750 •

Intel heeft zijn Xeon Phi-coprocessors formeel aangekondigd tijdens het SuperComputing-symposium, dat plaatsvindt in Salt Lake City. Het bedrijf toonde de Xeon Phi-coprocessors voor parallelle rekentaken al eerder, maar gaf de specificaties en typenummers nog niet vrij.

De eerste versie van de Xeon Phi-coprocessor die Intel uitbrengt, is de 5110P. Deze pci-express-insteekkaart wordt passief gekoeld en wordt nu al aan sommige klanten geleverd, maar algemene verkrijgbaarheid is gepland voor 28 januari 2013. De kaart kost dan 2649 dollar. De Xeon Phi-architectuur is gebaseerd op Knights Corner, een doorontwikkeling van Intels Larrabee-techniek, en wordt gekenmerkt door een x86-architectuur met een 512bit brede vectorunit. De code wordt op de coprocessor uitgevoerd; de pci-express-verbinding wordt primair als netwerkinterconnect gebruikt.

Het grootste voordeel van de Xeon Phi's is de mogelijkheid om x86-code op de coprocessors uit te voeren. Code hoeft dan niet apart geschreven te worden, zoals bij gpgpu-computing. Als code geschikt gemaakt wordt voor parallelle verwerking, is het recompilen van de sourcecode voldoende om deze op de Xeon Phi-hardware uit te voeren. Vergeleken met een normale Xeon-processor zou de Xeon Phi twee- tot driemaal zo snel de geoptimaliseerde parallelle code kunnen uitvoeren. Het inzetten van de Xeon Phi-kaarten in supercomputers moet toepassingen als weersvoorspellingen, klimaatmodellen en simulaties versnellen.

De Xeon Phi 5110P wordt geleverd met 8GB gddr5-geheugen dat 5GT/s aan bandbreedte heeft. Omdat ecc ontbreekt in het geheugen, wordt een algoritme gebruikt om data-integriteit te waarborgen. De zestig cores van de 5110P worden op 1,053GHz geklokt en beschikken over 30MB cache. De kaart kan 1011Gflops aan double precision-rekenkracht halen. Twee 'special editions' met 1073Gflops en 61 op 1,1GHz geklokte cores zijn eveneens leverbaar.

In de tweede helft van 2013 wordt ook de 3100-serie Xeon Phi-coprocessors geleverd, die net als de 5110P op 22nm wordt geproduceerd. Deze komen in een passief en actief gekoelde pci-express-uitvoering beschikbaar. Intel geeft het aantal cores nog niet vrij, maar gezien de hoeveelheid cache-geheugen zou dat 57 zijn. De hoeveelheid geheugen voor deze kaarten bedraagt 6GB en de 3100-kaarten zouden nog altijd ruim 1Tflops halen. Waarschijnlijk worden de cores daartoe sneller geklokt dan de 5110P-kaarten.

Intel Xeon Phi-specificaties

Reacties (53)

"De Xeon Phi 5110P wordt geleverd met 8GB gddr5-geheugen dat 5GT/s aan bandbreedte heeft."

Wat betekent 5GT/s?
En ik vraag me bij dit soort kaarten altijd af, voor wie of welk bedrijf zijn deze nu geschikt? Vanaf welke grootte van een bedrijf komt deze kaart nu te pas?
Tekst:
...toepassingen als weersvoorspellingen, klimaatmodellen en simulaties versnellen...
Timer erbij gepakt, duurde 12 seconde
In computer technology, transfers per second and its more common derivatives gigatransfers per second (abbreviated GT/s)
Bedrijven die werken met supercomputers en daarmee weersvoorspellingen, klimaatmodellen of simulaties willen berekenen. Deze kaarten kunnen dat process versnellen.

En 2600 dollar is echt niets als je zonder die kaarten veel langer moet wachten en daarmee je werknemers van het werk afhoud.
Weermodellen zijn dusdanig complex dat waarschijnlijk 1 zo'n kaart niet volstaat.
Waarschijnlijk doelt Intel meer op een cluster met in enkele node een paar van deze kaarten.
Dan wordt de berekening :
#aantal_nodes * #aantal_kaarten_per_node * 2600 dollar = heel veel $$$$
En, omdat de data elkaar beinvloed, mag je onderling wat infiniband oid leggen.
Dit staat voor Gigatransfers per seconde.
Deze kaarten zijn uitermate geschikt voor clusters en andere supercomputers

https://tweakers.net/tag/Supercomputers/
GigaTransfer per seconde.

Een term verzonnen, omdat er per klokcyclus meerdere bits kunnen verstuurd worden.
Het grootste voordeel van de Xeon Phi's is de mogelijkheid om x86-code op de coprocessors uit te voeren. Code hoeft dan niet apart geschreven te worden, zoals bij gpgpu-computing. Als code geschikt gemaakt wordt voor parallelle verwerking, is het recompilen van de sourcecode voldoende om deze op de Xeon Phi-hardware uit te voeren.
Ja, ja ... wat een marketing BS zeg. Voor gpu-computing zijn ook gewoon optimaliserende compilers beschikbaar hoor.

[Reactie gewijzigd door Killemov op 13 november 2012 01:25]

uhm, heb je wel eens voor een gpu geprogrammeerd? die zijn in hele andere dingen goed dan x86 cpu's ;) tis niet even een kwestie van cross compilen, maar meer de architectuur van je software herzien.
GPU's zijn met name goed in het enigzins uniform bewerken van grote sets data. En dat is nou precies waar deze Phi's ook voor gepusht worden. EN is het wel degelijk mogelijk om de meeste "normale" cpu instructies te vertalen naar gpu instructies. Niet dat je dat zou moeten willen, maar het kan.
Het is wel de dag van de Compute Kaarten :) Dit is dan wat Larra Bee had kunnen worden als dekstop kaart (wel een modernere refresh van larrabee maar dan nog)

Ik ben benieuwd hoe hij het doet tegen de K20 van nVidia en de S9000 en S10000 van AMD. Qua raw power is hij iets trager. Maar dat zegt niet altijd iets.

[Reactie gewijzigd door Astennu op 12 november 2012 22:09]

deze kaart is voor zover ik heb gelezen geen (directe) concurrent voor de Tesla K20 van nvidia. Die zit echt in een hoger (hoogste) segment. maar is ook juist GPGPU en cuda. Net als de AMD die dan juist OpenCL is. Maar kwa kracht totaal andere klasse.

[Reactie gewijzigd door Jazco2nd op 13 november 2012 00:17]

Yep, Vanavond is het openingsgala op supercomputing in Salt Lake City, (na de 2 dagen workshops die net gedaan zijn) hier zijn alle grote vendors aanwezig, vandaar dat vandaag vanalle vernieuwingen op het vlak van supercomputing bekend gemaakt worden.

De top 500 van supercomputing is ook net op hun site verschenen (vandaar de Titan update eerder vandaag) Deze wordt hier naar goede gewoonte elk jaar in november voorgesteld. (De update in july gebeurd in de europese versie van SC12, dat was dit jaar in hamburg)


bron:
Ik ben hier aanwezig.
Hmmm, Daar zou best een paar leuke koeien op moeten kunnen laten draaien, al zal dat voor de gemiddelde DC-er een tikkie overkill qua kosten zijn gok ik zo.
Hoe zou zo'n kaart zich verhouden tot een beetje leuke grafische kaart op dit moment?

[Reactie gewijzigd door TFHfony op 12 november 2012 22:32]

AMD's nieuwe kaart doet

5,91Tflops single-precision
1,48Tflops double-precision

nieuws: AMD introduceert dual-gpu FirePro S10000
Het grote verschil met de videokaarten is natuurlijk de instructieset. Deze kaarten van Intel gebruiken de x86 instructieset, waar je bij videokaarten op OpenCL of Cuda bent aangewezen (gogpu) zoals ook in de tekst van het nieuwsitem staat.

Je kan hierom niet zomaar de cijfertjes naast elkaar zetten.
Het word echt even wachten op benchmarks, in de ene zal dit beter zijn, in de andere een Quadro of een FireGL..
Da's best knap van Intel dan, om niet heel veel slechtere cijfers te halen met een passief gekoeld kaartje, terwijl die AMD richting de 400W verstookt. Grappig dat Intel in dit segment blijkbaar wel serieus moeite steekt om met AMD/nVidia te concurreren, terwijl ze nooit enige poging hebben gedaan om losse videokaarten te introduceren.

[Reactie gewijzigd door Dreamvoid op 12 november 2012 23:13]

Passief gekoeld maar wel een 300W 225 TDP - ik denk (nog steeds) niet dat je deze kaart zomaar in een willekeurig systeem kan steken zonder dat ie oververhit...

[Reactie gewijzigd door murtoz op 12 november 2012 23:40]

Dit zijn natuurlijk kaarten die actief gekoeld worden door een vantilator die in een frame zit ingebouwd, zoals normaal is bij servers.

Een actief gekoelde kaart zou de airflow alleen maar belemmeren in een rackserver.
De rackserver zelf heeft genoeg capaciteit om deze kaart oopk mee te koelen.

Op deze foto is dat goed te zien hoe dat met processoren word gedaan
http://blog.whitesites.co...er_633913395676134000.jpg

2 ventilatoren worden op het koelblock gericht en koelen op deze manier ook alle omliggende componenten.
Ze zijn helemaal niet passief gecooled. Dit zijn kaarten die geen fan hebben omdat het een duct heatsink is zodat de fans van de server er lucht doorheen kunnen blazen. Dus ze worden wel degelijk actief gecooled. 300 Watt passief gaat je niet lukken met een dual slot cooler. Dan moet je eerder 6-8 sloten dik hebben.
Ik zou niet verbaasd zijn als je met deze kaart niet vloeiend een game die wezenlijk nieuwer is dan de eerste Half-Life kan spelen. Ze zijn niet ontworpen om zo multi-purpose te zijn als een videokaart.
Je eerste deel (Half-life spelen) van je bewering klopt (waarschijnlijk :P ) wel. Het tweede deel echter niet: GPU's (die dingen die in videokaarten zitten) zijn juist gespecialiseerde, en dus niet multi-purpose, units die goed zijn in één ding: 't in bulk verwerken van bakken data en daar dezelfde bewerking(en), vaak parallel, op los laten.
... is a specialized electronic circuit designed to rapidly manipulate and alter memory to...
CPU's daarentegen zijn juist érg multi-purpose. Ze hebben een veel generiekere (en meestal(?) grotere) instructieset zodat ze veel breder kunnen worden ingezet voor complexere taken.

Zie voor een betere uitleg deze SU post en de daaropvolgende.

[Reactie gewijzigd door RobIII op 13 november 2012 02:33]

Deze cores zijn ook niet zo flexiebel als bv een Sandby bridge core. Deze zijn erg uitgekleed en ook vooral goed in bepaalde bewerkingen.

[Reactie gewijzigd door Astennu op 13 november 2012 10:14]

Niet? Software-rendering van HL1 moet op moderne CPU's gewoon werken; op dit ding dan ook, alhoewel ik betwijfel of hij dan effiicient gebruikt wordt (HL1 en de meeste games van toen (en nu nog) zijn nl niet multi-core.
Mja, ik weet geen drol van games; ik ging even uit van hardware rendering. Weet ik veel dat HL1 software rendering is :P :X
Klink allemaal er futuristisch, hopelijk worden dit soort proccesoren over 5 jaar de standaard, Het staat voor de normale gebruikers zo stil, Ik heb verder geen verstand van servers maar alsnog vind ik het voor een server ontiegelijk veel klinken, betekent dit dan dat serverparken meer grote servers zullen hebben staan ipv die kleintjes?
Klink allemaal er futuristisch, hopelijk worden dit soort proccesoren over 5 jaar de standaard, Het staat voor de normale gebruikers zo stil,
Wat zou je thuis aanmoeten met een coprocessor die alleen maar meerwaarde heeft voor parallelle rekentaken? Alsof je daar iets aan hebt als consument.

Het enige waarin dat volgens mij interessant is voor thuis, is in de grafische kaart, maar die hebben zelf al hun geoptimaliseerde gpu voor dat doel.
Als je een gamer bent..... als je meer wetenschappelijk bezig bent op je PC kan dit toch wel interessant zijn....
workstations met comsol / solid works / autocad kan ik me iets bij voorstellen. Als wetenschapper zou ik mooi computertijd huren :)
Als je een gamer bent voldoet de huidige hardware; een 60-core x86 coprocessor zal je games niet sneller laten draaien, daar heb je videokaarten voor. En 'meer wetenschappelijk' is nogal vaag; als je als consument ineens veel rekenkracht nodig hebt voor wat voor reden dan ook, zit je of bij een universiteit met een stevige supercomputer, of huur je even wat capaciteit bij Amazon in.
Zeiden ze dat x aantal jaren geleden ook niet met de 368, wat moet je nou met zo'n co-cpu :D
je bedoelt de 387.

voor de 286 was er de 287 cocpu en voor de 8088 was er de 8087 cocpu.

was toen al niks nieuws.

Maar dat waren floating point units en hadden niks te maken met paralelle rekentaken, deze copro's namen gewoon de floating point sommetjes over van de gewone cpu omdat die geoptimaliseerd was voor integer rekensommetjes.
Photoshop? Premiere?

Er zijn tegenwoordig een aantal taken die dmv een GPU versneld kunnen worden bij die programma's, maar toch leunen een aantal taken nog heel zwaar op de CPU leunen.

Zelfs met een I7 komt het af en toe nog wel eens voor dat ik even naar de keuken kan lopen om een boterham te smeren. :)
Deze servers voeren hele andere taken uit, waar geen kleine servers worden gebruikt maar juist hele zware, waar Intel-processoren niet aan kunnen tippen. Denk aan IBM Power 7 processoren en dergelijke.
Stomme vraag wellicht... maar moet je daarvoor je kode aanpassen? Of kan een J2EE webserver die ook wat zware processing doet hier meteen van profiteren?
Lees het artikel nogmaals.
Misschien een hele domme vraag, maar kan je (als je het geld hebt bijv) zo'n ding ook in je thuis computer stoppen?
Heeft dat nut voor bijv decoden / inpakken / uitpakken van bestanden, (veel) achtergrond berekeningen doen, en in de toekomst evt voor een simpele pc upgrade (2dehands/prijszakking) dmv een pci-e ipv cpu te vervangen??

[Reactie gewijzigd door Ting87 op 12 november 2012 23:45]

De code moet nog steeds opnieuw gecompileerd worden, dus dat moet de software leverancier dan nog wel voor je doen :)
thanks. Geen oplossing dus voor mijn oracle database met extreem veel (veels te veel) PL/SQL....
Ow wat zou het mooi zijn. quad 1,7ghz snapdragon processors van qualcomm. Dat zijn mobile processors . Een stuk of 20 op 1 moederbord rekenpower!!! En laagstroomverbruik!!!!! ben benieuw of je dan een teraflop haalt met pak hem beet 50 watt?
Hier iets soortgelijks https://tweakers.net/nieu...-en-64-raspberry-pis.html

Zowel deze als de snapdragons zijn geen match voor reguliere cpu's.
Beetje afhankelijk van de taak. Jouw voorbeeld zijn ARMv6 raspberry pi's (pies?) op 700 mhz.
Een Snapdragon S4 1.7 ghz Quad (APQ8064) is toch wel iets andere koek.

Zet er zoals hierboven 20 in, en je hebt 80 S4 cores (met 20 Adreno 320 GPU cores!)

Daar wil ik best een paar benchmarks van zien :-) Beetje makkelijk om dat maar meteen af te doen als 'dat is geen match'.
Daar kan mooi een koe op!
300W passief koelen :?
in serverracks heb je altijd een vrij hoge airflow van voor naar achter in de kast, deze kaart zou direct in de airflow staan, er hoeft dus geen fan meer op die eventueel kan slijten. De lucht die door de kaart naar buiten geblazen wordt is dan voldoende koeling.
correctie: direct in de al hete airflow. Dus de lucht die eerst al over cpu en zo is gegaan. De meeste PCI kaarten in servers zijn niet zulke straalkacheltjes (in tegenstelling tot de videokaart in jou systeem)
De videokaart in mijn systeem verbruikt anders een heel stuk minder dan deze kaarten.

Dus juist dan vind ik het zeer onverstandig om ze passief uit te brengen, want hoe kun je nou de werking garanderen als je maar moet vertrouwen op de airflow van de rest van de kast? Intel heeft er realistisch gezien geen invloed op waar deze kaarten ingestoken gaan worden.

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Luchtvaart Crash Smartphones Sony Apple Games Politiek en recht Besturingssystemen Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013