Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 49, views: 15.797 •

Intel heeft tijdens de International Supercomputing Conference 2012 in Hamburg zijn nieuwste productlijn aangekondigd. De Xeon Phi-serie processors moeten in de nabije toekomst de drijvende kracht van supercomputers worden.

Het Xeon Phi-merk werd maandag door Rajeb Hazra, Intels nieuwe topman van de Architecture Group, formeel geïntroduceerd. Het eerste product onder de nieuwe vlag is de Xeon Phi Coprocessor, een 'videokaart' met Xeon-technologie aan boord. Intel geeft geen details over de hardware, maar bevestigt dat de gpgpu-kaart over meer dan vijftig cores beschikt. Die cores zijn, anders dan Nvidia's Tesla-gpgpu's waarmee Knights Corner concurreert, compatibel met x86-code. Dat zou programmeren eenvoudig moeten maken. De coprocessors worden volgens hetzelfde 22nm-procedé met trigate-transistors als Ivy Bridge geproduceerd.

Een enkele Knights Corner-kaart zou al ruim een teraflops scoren in Linpack-benchmarks. De eerste experimentele supercomputer met de nieuwe coprocessor is al doorgedrongen in de supercomputer-top 500, waarvan een nieuwe lijst eveneens maandag werd gepubliceerd. Die Discovery-computer maakt gebruik van nodes waarin een enkele Knights Corner-kaart samenwerkt met twee Xeon E5-processors, om gezamenlijk 118tflops te halen. De computer is nog niet getweaked, zo benadrukt Intel, zodat de prestaties op termijn verbeterd kunnen worden. Het totaal aantal Xeon E5-2670-cores bedraagt 9800 stuks.

De coprocessor, die als pci-express-kaart met x8-interface beschikbaar komt, moet voor het eind van het jaar beschikbaar zijn. Knights Corner moet het dan opnemen tegen Nvidia's K20, met Kepler-architectuur. Knights Corner zal verkrijgbaar zijn als passief gekoelde kaart, waarbij de server voor de benodigde koeling zorgt, of als actief gekoelde kaart. De kaart heeft 8GB gddr5-geheugen aan boord.

Diverse fabrikanten hebben aangekondigd systemen met de Xeon Phi Coprocessor op de markt te zullen brengen. Onder meer HP, Dell en Acer brengen servers met Knights Corner uit. Ook Cray, fabrikant van snelle interconnects voor supercomputers, ondersteunt de nieuwe producten.

Intel Knights CornerIntel Knights Corner

Reacties (49)

Hoewel kort door de bocht, is het natuurlijk leuk om koetjes te laten grazen voor een goed doel op deze kaarten. Lastige is wel dat ze geheid veeeeel te duur zijn daarvoor.

Wat misschien wel lucratief zou kunnen zijn, is bitcoins :)
Denk je echt dat de prijs van een zakelijk product voor een server omgeving betere prijs/prestatie en watt/prestatie levert dan een consumenten-processor...
Dan ga je er van uit dat er ook een "consumentenversie" van dit type kaart uitkomt. En zoals in het artikel aangegeven is dit geen traditionele GPGPU (waarvan de "consumentenversie" een videokaart is), maar een die met x86-code overweg kan. En ik ken nog geen videokaart die met x86-code overweg kan.
De consumentenversie lijkt me ideaal voor een console. De GPU is x86-compatible dus je hebt voor veel games geen CPU meer nodig. De meeste games worden nu ook beperkt door de GPU en als de CPU een rol speelt, dan is het enkel dat die de gegevens niet snel genoeg bij de GPU kan aanleveren. Alleen voor de echt zware games heb je dan nog een aparte CPU nodig, of voor games waarbij de AI een grotere rol speelt als de beelden.
Aha ik gok dat dit is wat er over is van larrabee. Alleen dan in een getweaked en moderner jasje voor compute doeleinden. Ik ben benieuwd wat voor een snelheden dit ding haalt en wat je er allemaal mee kan doen. Hij bepaalde taken heel snel kunnen doen en andere weer niet. Daar moet je het van je normale Xeon CPU's hebben.

Gezien de bracket is het een grote chip. of in ieder geval een groote package.

[Reactie gewijzigd door Astennu op 19 juni 2012 08:34]

Daarom is het inderdaad een Coprocessor. Er staat dat het X86 compatibel is, dat het daarom eenvoudig programmeren is.

Lijkt me toch dat een software ontwikkelaar bepaalde keuzes moet maken in de code, zodat delen geoptimaliseerd worden voor die coprocessor. Een deel kan de compiler doen waarschijnlijk.
Larrabee 1.0 en 2.0 waren dan misschien dan wel ge flopt, maar het project was nooit dood.

Want dit zat er al een hele tijd aan te komen, denk dat zowel nVidia als AMD hier een hele zware concurrent mee zullen krijgen.

Denk ook dat net als zoals nu AMD zijn GPGPU onderdelen in de CPU verwerkt, Intel deze Larrabee 3.0 techniek ook deels zal gaan verwerken in zijn CPUs.

En denk daarnaast ook dat dit de nekslag zal worden voor CUDA, niet dat Tesla perse zal verdwijnen, zeker niet, maar wel CUDA als programmeertaal, en zal worden vervangen door OpenCL.

Waarom ik denk dat CUDA zal verdwijnen is dat bedrijven geen verschillende programmeertalen willen gebruiken, en zeker niet een vendor lock-in willen zo als dat nu met CUDA is.

Want stel je maakt een simulatie programma dat heel snel is op Tesla met CUDA, prima maar wat gebeurd er over een paar jaar wanneer je hardware is verouderd.
En opeens Larrabee 5.0 of AMDs 9000 serie een betere keuze is, dan denk ik dat je niet echt blij bent dat je weer nVidia moet kopen omdat je alles hebt geprogrammeerd in CUDA.

En denk dan ook dus, dat OpenCL de nieuwe standaard zal worden, en dus dat mensen die OpenCL hardware zoeken alleen maar meer keuzes zullen krijgen, daar alle drie de bedrijven hun eigen implementatie hebben van wat zij denken dat de beste manier is.

[Reactie gewijzigd door player-x op 19 juni 2012 10:15]

Denk ook dat net als zoals nu AMD zijn GPGPU onderdelen in de CPU verwerkt, Intel deze Larrabee 3.0 techniek ook deels zal gaan verwerken in zijn CPUs.
Inderdaad, ik vermoed ook dat er een verregaande integratie zal plaatsvinden op een gegeven moment. Het grootste probleem wat je nu met dit soort systemen hebt namelijk is dat het zijn eigen geheugen heeft en je dus moet zorgen dat de data daar in aanwezig is voordat je kan rekenen, en je moet ook de resultaten weer terug krijgen. Het is voor de hand liggend dat dit geintegreerd zal worden binnen in toekomstige CPUs.

Het is interessant om na te denken waar dit heen zal gaan; we gaan in feite richting de heterogene many-core architecturen toe op deze manier. Een aantal klassieke grote x86 cores voor het zware sequentieele stampwerk, en een heleboel kleinere simpelere cores voor delen die juist heel goed geparalleliseerd kunnen worden. Intel heeft met deze ontwikkeling het voordeel dat beide aanpakken dezelfde x86 instructieset gebruiken, en daardoor dus makkelijker integreren en te programmeren zullen zijn.

Voor de mensen die meer geinteresseerd zijn in de toekomstige richtingen kan ik dit praatje van Prof. Yale Patt van de University of Texas at Austin aanraden waar hij spreekt over zijn visie van toekomstige architecturen. Het is sowieso een erg leuke man om naar te luisteren (en ook om hem te ontmoeten overigens :) ) http://www.youtube.com/watch?v=hFGyRrgMvhA Hij draait al lang mee in het architectuur wereldje en heeft veel gewerkt onder andere aan out-of-order execution engines en branch predictors, en heeft zo ook bijgedragen aan de introductie van OOO-executie in de Pentium Pro processor en diens opvolgers. Hij weet echt wel waar hij het over heeft ;)

Een groot verschil is overigens met GPGPUs is dat deze architectuur op x86 gebaseerd is, dus in tegenstelling tot GPU codes beter om kan gaan met control code (branches e.d.) en daardoor met onregelmatigere patronen van parallelisme. Ik vind het wel apart dat ze het onder het "Xeon" merk brengen, maar dat zal wel zijn om aan te geven dat het echt voor zwaar business/scientific rekenwerk is.
Waarom ik denk dat CUDA zal verdwijnen is dat bedrijven geen verschillende programmeertalen willen gebruiken, en zeker niet een vendor lock-in willen zo als dat nu met CUDA is.
Dat hangt er helemaal vanaf hoe goed het alternatief is. Ik heb er zelf geen ervaring mee, maar hoor vaak dat CUDA veel fijner en makkelijker is om mee te werken dan OpenCL. Mocht dat inderdaad zo zijn (en zo blijven) dan lijkt het me te vroeg om CUDA nu al af te schrijven. Ga maar na, iedereen legt zich neer bij de (halve) vendor lock-in van x86, gewoon omdat het alternatief (zoals ARM; dat is weliswaar niet "open", maar ARM-licenties zijn zachtgezegd "aanzienlijk makkelijker" te krijgen dan x86-licenties) totaal niet competitief is.
CUDA was er eerst, maar OpenCL is een inhaalslag aan het maken, maar de gene die zeggen dat CUDA beter is, zijn fan van, of werken bij nVidia.

CUDA is zeker heel goed, misschien op het moment nog steeds iets beter dan OpenCL, maar OpenCL heeft een groot voordeel, het open gedeelte van de standaard, waar "vendor lock-in" altijd slecht is op de lange termijn.
Denk bv aan IE6, de gevolgen daarvan zijn zelfs tot nu nog voelbaar.
Conclusion
You might be completely missing the differences in the API. There are language-differences between CUDA 4.0, OpenCL 1.0 and OpenCL 1.1, but I will give an overview of differences later (will be linked from here). Also enough to tell on how to port your CUDA-software to OpenCL.

My verdict:

CUDA

+ is marketed better.
+ has developer-support in one package.
+ has more built-in functions and features.
- only works on GPUs of NVIDIA.

OpenCL

+ has support for many processors.
+ is a completely open standard.
- Only AMD’s and NVIDIA’s OpenCL-drivers are mature – Intel and IBM expected soon to mature their drivers.
- is supplied by many vendors, not provided as one packet or centrally orchestrated.

I hope you found that OpenCL is not a cute alternative to CUDA, but an equal standard which offers more potential. I also pointed out that OpenCL has to do some catch-up, but that will all happen this year.
Bron: http://www.streamcomputin...l-vs-cuda-misconceptions/
het zijn gewoon 50 of meer aangepaste pentium 1 processors op 22nm met een vector aanpassing. deze staan paralem geschakeld en kunnen dus bepaalde x86 instructies aan ..
De Larrabee / Knights / Phi architectuur is inderdaad niet de meest efficiente, niet naar oppervlak in elk geval. De chip die met de GPUs van nVidia en AMD moest concurreren en daar niet genoeg power voor had was zo'n 600 mm^2 groot, en dat is gigantisch natuurlijk. Blijkbaar komt er behoorlijk wat overhead bij het gebruik van x86 kijken, of het moet de ringbus zijn die zo veel ruimte in neemt. Hoe dan ook, Intel probeert hier zijn voorsprong betreft fabrikage in te zetten, zo lijkt het, en de kleinste node te gebruiken. Desalniettemin vermoed ik dat Phi chips altijd wel een slagje duurder zullen zijn ten opzichte van GPUs van eenzelfde (DP FLOPS) kaliber - mogelijk niet alleen in fabrikage, maar ook gebruik.
Waar heb je het over ?
Het maakt letterlijk geen moer uit of deze chips 100mm2 of 1000mm2 zijn.

Tesla kaarten beginnen van § 2000 tot wel § +5000, met zulke prijzen zijn de kosten van het silicium verwaarloosbaar, en ik neem aan dat Intel vergelijkbare prijzen zal hanteren.

Er is bv letterlijk geen verschil tussen een Core i5 2310 en een Xeon E3-1280, anders dan dat bij de een alles werkt en de andere de helft is uitgeschakeld.
Maar men wel 4x zoveel moet betalen voor de Xeon, dat zijn de extra server R&D kosten voor extra's die normale gebruikers niet nodig hebben.

Het maken van een CPU chip kost gemiddeld van § 10 tot § 30, laten we zeggen dat deze Xeon Phi-serie processors, 600mm2 groot zijn en § 100 per stuk kosten om te maken, dan nog steeds valt dat in het niets qua R&D kosten. (weet trouwens niet waar je die 600mm2 vandaan hebt)
De GF100 is 529mm2, en die koste +/- $50 per die, inclusief alle weggeworpen die's, ik neem aan dat Intels Fab nog een stuk beter is dan TSMC qua procestechniek, en daarnaast word dit ook nog eens binnen huis gedaan.

Dit zijn speciaal doel gerichte kaarten, waar net als alle andere speciale server onderdelen, een prijs premium voor betaald moet worden.

Daarnaast is de architectuur heel verschillend van nVidia's en AMDs GPGPU, er zullen dingen zijn waar GPGPU beter is en er zullen dingen zijn waar massieve parallel x86 beter presteert.

Er zijn maar twee dingen die echt belangrijk zijn, en dat zijn GFLOPs/prijs en GFLOPs/watt, denk dat ze bij Intel wel een stel goede bonen tellers hebben en hebben uitgerekend dat de verhoudingen wel goed zijn om winst te maken, anders was dit project wel gestopt met Larrabee 1 of 2

[Reactie gewijzigd door player-x op 19 juni 2012 12:48]

Het maakt letterlijk geen moer uit of deze chips 100mm2 of 1000mm2 zijn.
Was het maar zo! Maar nee, helaas is dat echt niet waar. Ten eerste heb je al een probleem met je yields als je grotere chips gaat bakken. Hoe groter je chip namelijk is, hoe groter de kans op een productiefout, en dus groter de kans dat hij het niet goed doet. Stel dat je op een wafer een bepaalde kans hebt per vierkante cm dat er een fout optreed in het proces, bijvoorbeeld omdat je je materiaal niet 100% puur krijgt. Als je dan een wafer volstempelt met een hele berg kleine chips, dan zullen er een aantal het niet doen maar voldoende zullen prima zijn. Stel een andere extreme voor; je maakt een chip zo groot als de hele wafer, dan heb je een zeer grote kans dat je hele chip niet werkt. Er is dus qua productietechnologie een vrij goeie reden om de chips niet al te groot te laten worden. De experimentele Intel SCC chip was bijvoorbeeld vrij groot, 1.3 miljard transistors op 567 mm2. Het resultaat, een slechte yield: meer dan de helft van de chips die ze gebakken hebben voor dit project bleken niet te werken.

Andere problemen zijn er ook nog, namelijk op electrisch en architectureel niveau. Hoe groter je chip, hoe lastiger je clock distribution netwerk zal zijn om aan alle componenten synchroon clock pulsen af te leveren. Als je het over on-chip netwerken hebt kost het je weer meer tijd om van een core van de ene kant naar de andere kant van je chip te gaan. Je hebt in het algemeen namelijk niet directe verbindingen (dat zou te veel stroom vreten en plek innemen), maar vaak packet routed on chip networks. Voor elke hop die je daar op moet maken krijg je weer extra latency in je communicatie!
Ja ja ja, je hebt helemaal gelijk, wat je daar zegt, ik weet ook wel dat productie kosten kwadratisch omhoog gaan met "die size", maar dat is alleen van belang, als je over een massaproductie chip hebt, want je vergeet alleen even het belangrijkste punt.

Nogmaals.
Tesla kaarten beginnen van § 2000 tot wel § +5000, met zulke prijzen zijn de kosten van het silicium verwaarloosbaar, en ik neem aan dat Intel vergelijkbare prijzen zal hanteren.
Zolang de chips niet meer dan $500 per stuk kosten, zijn de productie kosten van min of meer niet van toepassing bij een speciaal product als deze.
En ik schat zelf in, dat de productie kosten voor Intel nog steeds ver onder de $100 per die is, wat het hele argument
min of meer irrelevant maakt.

En zelfs als dat nog als het veel hoger is, dan geld er nog steeds maar twee dingen die van belang zijn, en dat zijn GFLOPs/prijs en GFLOPs/watt, en wat uiteindelijk het allerbelangrijkste bepaald, de GFLOPs/TCO verhouding.

Daarnaast kan men de zelfde techniek gebruiken als men nu met CPUs en GPUs doet, bepaalde delen van de chip uitschakelen.
Een chip met 100 cores, waar van er nog steeds 80 of 90 het doen is nog steeds zeer interessant.

[Reactie gewijzigd door player-x op 19 juni 2012 16:04]

Quote

Er is bv letterlijk geen verschil tussen een Core i5 2310 en een Xeon E3-1280, anders dan dat bij de een alles werkt en de andere de helft is uitgeschakeld.
Maar men wel 4x zoveel moet betalen voor de Xeon, dat zijn de extra server R&D kosten voor extra's die normale gebruikers niet nodig hebben.

Quote

Als de helft niet mee doet, hoe kunnen ze dan gelijk zijn, vraag ik mij af?
Als de helft niet mee doet, hoe kunnen ze dan gelijk zijn, vraag ik mij af?
Het is net zo iets als een bedrijfspand, waar je maar een deel van het vloer oppervlakte van gebruikt.
Je betaalt alleen voor het gedeelte dat je gebruikt, de ongebruikte ruimte betaal je niks voor.
[q*]Als de helft niet mee doet, hoe kunnen ze dan gelijk zijn, vraag ik mij af? [/q*]
Op deze manier maak je een quote minus de extra sterretjes *

[Reactie gewijzigd door player-x op 20 juni 2012 09:07]

Het probleem is niet de x86 ISA. Die kun je relatief efficient decoderen (<< 1mm≤). Het probleem is dat Larrabee afgeleid is van de originele Pentium (P54C) architectuur, welke niet zo efficient was.
Alles in x86 land is letterlijk afgeleid van de antieke 8008, dat wil nog niet zeggen dat de huidige Intel CPUs inefficiŽnt zijn.

Het zelfde geld voor de Larrabee, het mag dan wel afgelijd zijn van de P54C, dat wil nog niet zeggen dat er niet een hoop verbeteringen zijn doorgevoerd.
with Intel confirming that it is indeed using an enhanced Pentium 1 (P54C) core with the addition of vector and FP64 hardware. Intel has also confirmed that Xeon Phi will offer 512-bit SIMD operations, which means we’re almost certainly looking at a 16-wide vector ALU in each core, the same kind of vector unit that Larrabee was detailed to have.
Men heeft de P54C alleen gebruikt als grove blauwdruk, van zo groot en niet groter.
P54C met 3.2 million transistors - vs - Sandy Bridge-E met 2270 million transistors, dat zijn zo een 700x zo veel transistors.

Je denkt toch niet dat men 18 jaar oud ontwerp hebben gebruikt zonder die te optimaliseren en daar in de moderne theorieŽn en technieken in te verwerken?

[Reactie gewijzigd door player-x op 19 juni 2012 16:05]

Dat het voor x86 code is ontworpen maakt misschien wel de doorbraak. (Nvidia) GPU servers presteren behoorlijk goed, maar ik zie maar geen software ervoor verschijnen.

Nu is me het uit het artikel nu niet helemaal duidelijk...2 Xeons die met deze kaart 118Tflop eruit poepen? dat kan toch niet klopppen. En waar komen die cores vandaan uit: "Het totaal aantal Xeon E5-2670-cores bedraagt 9800 stuks."?

...ik mis dus iets bij dit verhaal geloof ik of mijn dutje van vannacht heeft 15 jaar geduurd
Het staat er inderdaad niet zo duidelijk, maar er wordt bedoeld dat de Discovery supercomputer opgebouwd is uit nodes bestaande uit een enkele Knights Corner-kaart die samen werkt met twee Xeon E5-processors. Alle nodes bij elkaar leveren 9800 cores op, die samen 118TFLOPs leveren :)
thanks! :)

En toen stelde het gene ene ruk meer voor. 118Tflop haal je al met de 9800 Xeon cores alleen...zonder de GPU erbij

Of anders gezegd, met 8448 Xeon E5-2670 cores haal je al 152

Ergens heerst bij mij toch ernstig de gedachte dat Intel de GPU chip gewoon niet beheerst en dat Nvidia en AMD het nog altijd beter kunnen.

Speaking of which, tijd dat AMD de GPU-rekenmarkt gaat betreden!
ik bindt het artikel zowieso een beetje vaag qua performance,

Een enkele Knights Corner-kaart zou al ruim een teraflops scoren in Linpack-benchmarks.

ok 1Tflop dus

Die Discovery-computer maakt gebruik van nodes waarin een enkele Knights Corner-kaart samenwerkt met twee Xeon E5-processors, om gezamenlijk 118tflops te halen.


dus waar komen de andere 117 vandaan? of lees ik iets verkeerd, later staat er namelijk ook dat er 9800 CPU's in de supercomputer komen, maar ze testen hem eerst met 2?
ik vind het maar vaag.

OT: larrabee gaat dus toch mogelijk nog wat worden, met die vector extensions zie ik ray en pathtracing iig wel zitten, ik ben benieuwd of grote klanten als dreamworks en disney/pizar dit gaan gebruiken, zo ja dan kan het wel eens toekomst hebben in de grafische industrie.

zo neit mogelijk leuk voor hoog parralelle servers of wetenschappelijke taken.
Het was te verwachten dat Intel eindelijk eens met hun eigen GPU op de markt zou komen. Na de pogingen om met Nvidia in zee te gaan hebben ze aardig wat GPU engineers aan genomen maar tot vandaag was er niet echt een product. Deze many core architectuur is ongeveer het geen de knight corner samples met 80 cores waren die ze een jaar of twee geleden zo af en toe lieten zien.
Ik vraag me af of Intel nu ook een consumer versie gaat maken, Intel roept al jaren dat ze dichtbij een punt zijn waar ze realtime raytracing mogelijk zouden kunnen maken en voorspelt dat dat het einde zal zijn van zo wel de AMD als Nvidia manier van werken. Maar tot op heden zijn ze nooit in de buurt gekomen van een processor die dat zou kunnen. Een teraflop is ook niet echt genoeg maar al een stuk beter dan het geen ze tot op heden gedaan hebben. Als ze dit door zouden trekken met flink wat optimalisatie zouden ze in theorie (1 a 2 generaties verder) toch in de buurt moeten kunnen komen van een chip realtime raytracing mogelijk zou moeten kunnen maken.
Ik vermoed alleen dat deze chip een flinke plak zal zijn 50 cores is niet niets je moet communiceren met elkaar en met het geheugen en natuurlijk wil je ook nog eens andere dingen doen zo als signalen met de PCI-e interface communiceren en zo dat neemt nog al wat ruimte in en een x86 zelf is nu ook weer niet echt klein. Ik vraag me af of het voor Intel mogelijk zal zijn om dit soort hardware in een voor consumenten betaalbare package te stoppen of dat we daar misschien nog even op moeten wachten.

Hoe dan ook het is goed om het eerste product te zien uit de lang stille GPU groep binnen Intel (want de Ivy Bridge GPU is nu ook weer niet zo goed dat alle GPU specialisten die Intel aangenomen heeft over de laatste paar jaren hier allemaal aan gewerkt kunnen hebben (dan hat het ding wel wat beter moeten zijn))
Op AMD en nVidia kaarten zal je over 1 a 2 generaties ook kunnen realtime raytracen, voor zover dat nu al niet mogelijk is. Zo'n knight's corner kaart zo ruim een TFLOP kunnen halen. Mijn AMD 7770 kan dat theoretisch ook halen en die koop je al voor iets meer dan 100 euro's. Als je kijkt waar zowel nVidia als AMD naartoe gaan met hun GPU architecturen dan zijn die al prima geschikt voor raytrace toepassingen e.d, juist veel verder dan Intel met hun x86 spul.
Deze many core architectuur is ongeveer het geen de knight corner samples met 80 cores waren die ze een jaar of twee geleden zo af en toe lieten zien.
Nee je bent in de war met de Intel Teraflops research chip uit 2007, dat was dat 80 core prototype. Die had een compleet andere architectuur dan de Larrabee/MIC chips die nu hier gebruikt worden. De Teraflops research chip had een 80-tile mesh netwerk met simpele ALUs die geen complete x86 cores waren. In 2009 werd deze chip opgevolgd door de Intel SCC, een 48-core chip met een verbeterde versie van het zelfde mesh netwerk maar die wel simpele 32-bit Pentium 1 (P54C) cores. Die leek meer op de Larrabee/MIC chips maar er zijn nog steeds zeer grote verschillen; zo is de Larrabee/MIC 64bits, heeft een ring netwerk ipv een mesh, en heeft deze wel cache coherent shared memory.
Ik vermoed alleen dat deze chip een flinke plak zal zijn 50 cores is niet niets je moet communiceren met elkaar en met het geheugen en natuurlijk wil je ook nog eens andere dingen doen zo als signalen met de PCI-e interface communiceren en zo dat neemt nog al wat ruimte in en een x86 zelf is nu ook weer niet echt klein.
Volgens mij valt de grootte van een x86 core nog best mee, als je kijkt naar bepaalde single-core Pentium M modellen dan was maar 10% van het chip oppervlak de core en de rest was voornamelijk de L2 cache. De cores die ze gebruiken in de Larrabee/MIC chips zijn ook nog een stuk simpeler, ze zullen meer op de Pentium 1 (P54C) cores lijken met een in-order pipeline. Dat scheelt een boel logica in je chip als je geen complexe out-of-order execution engine hoeft te hebben. Maar deze cores zijn wel verder uitgebreid, ze ondersteunden 64 bits en hebben een extra brede vector unit toegevoegd, als ik het artikel op Anandtech moet geloven;
http://www.anandtech.com/...rocessors-mic-goes-retail

Maar goed, dat neemt niet weg dat het nog steeds een flinke plak is hoor, dat geloof ik best :Y)

Maar ik denk dat je dit ding vooral niet moet zien als een GPU, maar gewoon als een co-processor. Ook leuk om te lezen dat er een embedded Linux op die kaart zelf draait overigens. Het lijkt misschien qua organizatie een beetje op een GPU, maar het kan veel meer. Het lijkt dan meer op die Physics kaarten die ze een tijdje geleden op de markt probeerden te brengen. Het is gewoon een accelerator die goed is in parallel rekenen, net zoals de Nvidia Tesla producten.

[Reactie gewijzigd door Squee op 19 juni 2012 12:42]

Misschien totaal off-topic, maar waarom prikken ze niet zo'n behuizing op normale videokaarten? Vind dit een stuk mooier dan al die drukke plastic behuizingen die je nu veel ziet.
Omdat de gemiddelde consument houd van bijna naakte japanse dames die met zwaarden staan. Ik vind het persoonlijk ook niet mooi hoor, geef mij maar een strakke behuizing.

Ik ben daarintegen ook geen gemiddeld consument :)
Haha, in de gemiddelde pc hangt de kaart op kop, waardoor je niets van die meid ziet :P.
Ik heb ook extra een kaart gekocht met zo'n mooie lange zwarte koeler ipv een losse fan ergens bovenop gezet.

Ik ben ook wel van het model :D.


on-topic:
Ik vind het wel jammer dat de PCI-e link maar 8x is, ookal heeft een 8x link al wel een aardige bandbreedte, nam ik toch aan dat ze voor de volle 16x gingen.

Wel leuk zo'n processor op een insteekkaart :P
Ik denk dat het kostenplaatje behoorlijk meespeelt, het is ongetwijfeld veel goedkoper om plastic te gebruiken ipv metaal
Niet aantrekkelijk voor het gros, van het kopend publiek die wil felle en schreeuwende kleuren.Net zoals de tv's die opgesteld staan in winkels.
Kortom aantrekkings kracht is de verkoop van producten.
Dit grapje is echt zo vaak gebruikt en zo uitgemolken dat ik me kan voorstellen dat mensen er genoeg van krijgen. De aanname dat ongestelde pubertjes je naar beneden modden helpt ook niet voor je reactiescore...
Het kan dan misschien gezien worden als 'videokaart', het heeft echter geen enkele aansluiting voor beeldweergave. Puur een 'coprocessor'
Jaa, een snelle slotprocessor! Kan dit op een normaal moederbord geprikt worden?
vast wel, alleen onder W7 lijkt t me op t moment lastig ivm geen drivers oid :+

en wat wil je ermee doen? op t moment zo het voor de consument even een veredelde physxkaart zijn, totdat men er programma's voor schrijft
Uit het artikel:
De coprocessor, die als pci-express-kaart met x8-interface beschikbaar komt
Dus ja, dat zou op een "normaal" moederbord geprikt moeten kunnen worden.
Zou dit ding ook verkrijgbaar en betaalbaar worden voor "gewone" hobbyisten, of is het iets speciaals wat Intel alleen gaat verkopen voor de bouwers van supercomputers?

't Zou me wel leuk lijken om hiermee te knutselen en zelf voor te programmeren.
Als je een groot budget hebt... Ze zijn gek als ze het niet verkopen aan mensen zoals jij, zijn toch weer mooi inkomsten... Geld is geld.
kan voor VDI doeleinden een oplossing zijn...

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Websites en communities Smartphones Beheer en beveiliging Google Laptops Sony Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013