Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 79, views: 14.196 •

Intel heeft lange tijd, inclusief de formele productintroductie, de exacte specificaties van zijn Xeon Phi coprocessors, gebaseerd op de Knights Corner-architectuur, geheim gehouden. Details over de cores en cache-groottes worden nu pas bekend.

De coprocessors, zoals Intel de Xeon Phi-kaarten noemt die voor gpgpu-berekeningen kunnen worden ingezet, zijn een doorontwikkeling van Intels Larrabee. Larrabee was Intels poging om een losse videoprocessor te maken, een traject dat alweer enkele jaren geleden gestaakt werd. Helemaal ter ziele ging Larrabee echter niet: de architectuur werd doorontwikkeld in Intels MIC-project en in beperkte oplage als Knighs Ferry uitgeleverd. Die chips werden nog op 45nm geproduceerd en zouden doorontwikkeld worden tot Knights Corner, op 22nm Ivy Bridge-technologie gebakken maar met Pentium-architectuur aan boord.

De Knights Corner-kaarten werden als Xeon Phi in juni geïntroduceerd. Intel sprak destijds van kaarten met 'meer dan vijftig cores' en over de hoeveelheden geheugen aan boord deed het bedrijf evenmin uitspraken. De destijds geïntroduceerde kaarten bleken een A0-stepping met aan boord zestig cores te zijn, goed voor single precision-prestaties van 1Tflops. Inmiddels zijn drie varianten, zoals ze worden uitgeleverd, van de Xeon Phi-kaarten bekend, gebaseerd op de B0-stepping van de Knights Corner-architectuur, zo maakt VR-Zone bekend.

Het aantal cores van de B0-Xeon Phi-kaarten bedraagt 57, 60 en 61 cores, gecombineerd met 3GB, 6GB of 8GB gddr5-geheugen. De asic's hebben 1,8 of 1,9MB L1-cache en 28MB tot 30,5MB L2-cache aan boord. De kloksnelheid van de 57-core versies met 3GB en 6GB geheugen bedraagt 600MHz, terwijl de 60-core-variant met 8GB geheugen en de 61-core variant op ten minste 630MHz moeten tikken. Bovendien zou een turbo-modus de kloksnelheden opschroeven, maar met hoeveel is niet bekend. Het B0-silicium zou single-precision prestaties van 2Tflops moeten halen, met double-precision-cijfers tot 1Tflops.

Intel Knights Corner

Reacties (79)

Ik weet dat ze niet hiervoor bedoelt zijn maar hoe goed zou deze kaart presteren in games vergeleken met de huidige generatie videokaarten?
Als ik het goed begrijp is dit geen videokaart maar een extensie van je processor/geheugen om meer rekenkracht te genereren. Correct me if I'm wrong.
Dat denk ik ook. Ik zie bijvoorbeeld ook geen video-uitgang op de kaart.
Min of meer correct. Het is een kaart die je in de slot voor een videokaart steekt, maar die je in principe als rekenmonster gebruikt voor specifieke berekeningen.

Dat blijkt eigenlijk al uit de naam: General-Purpose computing on Graphics Processing Units
Als het een gp-gpu is klopt de beredenatie. Maar de Intel-Phi is geen gp-gpu. Het is een pci kaart volgestopt met x86 processoren.
De titel zegt: Details over Intels Xeon Phi-gpgpu-kaarten bekend
Klopt, de titel van dit artikel klopt ook niet.

http://en.wikipedia.org/wiki/Intel_MIC
Vandaar, ik was al een beetje in de war.
Nu,in samenwerking met een Ivy Bridge cpu kan je deze kaarten wel de ingebouwde gpu laten ondersteunen (denk bv aan 'Virtu-MVP') om zo een Teraflop aan rekenkracht tot je beschikking te hebben om driehoekjes (pixels) en effecten te berekenen.

Al is een dedicated gfx kaart daar wel veel efficienter in wegens de vele extensie en specifieke optimalisaties....

vergelijk het met een berg oprijden;
met een leger-tank met 2500 PK (de TFlop kaart) gaat dit,ondanks het zware vermogen, niet snel omdat je zoveel ballast meeneemt.
met een Caterham 7 ( Foto (een goede gfx kaart) vlieg je als het ware de berg op terwijl die misschien maar 1/10 van het aantal pk's heeft, maar hij is ook wel vederlicht en dient om te racen (renderen) ipv andere dingen uit te voeren (gpgpu)...
Het berg op rijden is voor de tank dan ook geen ideale situatie, al ben ik er nog niet van overtuigd dat de tank daar relatief veel snelheid op in levert.

Bovendien moet je voor elk stuk hardware kijken wat voor jouw het beste is.
Zo rijdt een tank met 2500 pk maximaal 70 km/u, maar haalt dat in vrijwel elk soort terrein.
onroad (beter een ander stuk hardware aanschaffen) zandpaden (wordt een tank al beter in zijn element) echt offroad (hier zijn maar weinig voertuigen die een tank kunnen bijhouden!

Dus ik denk dat deze kaart voor niet CUDA geoptimaliseerde raytracing echt een mooie kaart kan zijn!
Doet me denken aan onze eerste PC met 80386S.
En ipv 80387 erbij prikken een Weitec coproc.
Namen coprocessors in die machines de hele CPU niet gewoon over?

Ben benieuwd of zo'n KC naast wiskundig knarswerk ook relevant is voor virtualisatie, gezien het wel gewoon een hoop x86-cores zijn.
Namen coprocessors in die machines de hele CPU niet gewoon over?
Nee, coprocessors, of beter: Floating point units (FPU's), namen/nemen alleen de zwevendekommagetallen berekeningen over.

Weitek was enkel een merk van FPU clones die over het algemeen iets beter presteerde dan de originele van Intel.

[Reactie gewijzigd door i8086 op 2 augustus 2012 21:15]

Ik denk dat deze kaarten interessant zijn voor 'bitcoiners'. Mining via GPU zie je steeds vaker.
Daarvoor gaan ze hoogst waarschijnlijk veel te duur zijn. Deze kaarten, gebaseerd op x86 architectuur kunnen veel meer dan de simpele hash-berekening die nodig is voor mining,

(edit: zie ook reactie van Cheezus hieronder)

[Reactie gewijzigd door Katanatje op 1 augustus 2012 16:43]

Een consumentenkaart met vergelijkbare prestaties kosten velen malen minder
Als ik het goed begrijp is dit geen videokaart maar een extensie van je processor/geheugen om meer rekenkracht te genereren. Correct me if I'm wrong.
met een rekensnelheid van 2Tflops denk ik dat deze kaart ideaal is voor bijvoorbeeld global illumination. Om je videokaart te unloaden. of voor bijvoorbeeld heavy physics. 2Tflops is meer als mijn videokaart... Vooral algoritmes die veel precisie nodig hebben of algoritme's die niet echt een speedup genieten van parallellisatie lijken mij zeer geschikt voor deze kaart.

[Reactie gewijzigd door kajdijkstra op 1 augustus 2012 16:56]

Deze kaart moet concurreren met het GPGPU assortiment van o.a. nVidia en AMD, waarbij het voordeel dan zou moeten zijn dat je voor x86 ontwikkelt, met misschien een paar nieuwe assembly instructions om het GPGPU-deel te regelen.

Het is een uitstekende hook om te verkopen maar deze kaart heeft zich verder nog niet echt bewezen, dus ik ben heel benieuwd wat applicaties die ontworpen zijn om hiervan gebruik te maken kunnen doen met deze hardware.
Ja je hebt CPU met hun enkele complexe cores.
En de GPGPU met mini cores maar dan in de duizenden.
En dit intel is meer een X86 er tussen in cores.

Lijken mij meer generalpurpouse
Slecht. Drivers en games zullen hier niet voor bedoeld zijn. Een game wordt niet gemaakt met het oog op tientallen GPU cores geloof ik.
OpenCL bijvoorbeeld kan een zelfde algoritme gewoon delen over verschillende core's. Je kan zelfs in programmeren wat hij het beste kan gebruiken, Bijvoorbeeld als er veel x86 processors aanwezig zijn, dan die gebruiken en anders de gpu gebruiken. Zelfs een combinatie van cpu en gpu voor hetzelfde script kunnen worden gebruikt..
maar omdat er 0* games zijn die daar iets mee kunnen, heb je er niets aan. deze kaarten zijn niet bedoeld voor games.

*(0 als orde van grootte, want er gaat hieronder vast een wijsneus anders beweren)

[Reactie gewijzigd door increddibelly op 1 augustus 2012 16:58]

Ja en hier de wijsneus. Games maken veel gebruik van middleware. middleware kan GPGPU toepassen. Onafhankelijke middelware kan OpenCL hiervoorgebruiken.
Zodra OpenCL ondersteuning van iNtel hiervoor is. Kan men Games van deze copro gebruikmaken via middleware..

havok FX gebruikte gpgpu op merk onafhankelijke manier maar is door iNtel gekilled.
Mogelijk dat iNtel wel Havok deze copro mag ondersteunen.
PhysX zal uiteraard als grootste vijand niet intel spul ondersteunen.
Alleen er is momenteel weinig middleware wat gebruik maakt van OpenCL of AMP ( DX:CS ). Maar wat niet is kan wel komen.
hoop dat ze iNtels Havok en nVidia PhysX links laten liggen zodat er meer merk onbafhankelijke physics middleware komt.

game devs kunnen ook ipv middleware hun eigenimplementatie doen.
En voor AMP of OpenCL kiezen. Nu met iNtel en nV als GPGPU dwars liggers de juiste manier om licenceerbare game engine merk onafhankelijk te maken.

Helaas gaat die migratie heel langzaam.
en dus heeft hij gelijk, je heb er niks aan.
Niet, want het is geen GPU.

Het zijn in feite een heleboel x86 processoren op een pci kaart. Binnen je OS zie je ze ook gewoon als een core.
Mogelijk als AI, maar de huidige CPU's kunnen dat makkelijk aan i.c.m. een vlotte GPU.
De beperkte AI wat nu in games met beperkt AI eisen. Ja dat kan.
maar AI kan flink geupscaled worden kwa complexiteit maar ook aantallen.
Beetje afhankelijk van het soort game en diepgang kwa AI wat je nodig hebt.
Qua gaming zal deze kaart 0, of misschien een paar geŽmuleerde frames, halen vanwege een gebrek aan 3D (directx/opengl) instructies. Qua GFLOPS echter doet een 680 GTX zo'n 3 TFLOPS en een Radeon 7970 3,8 TFLOPS. Deze kaart haalt er 1 tot 2 maar zijn waarschijnlijk een stuk beter te benutten omdat ze gebasseerd zijn op de pentium (x86) architectuur.
Nou het voordeel van deze kaarten is dat ze ook gecompliceerde instructies aankunnen. Een GPU heeft de basisset wiskundige berekeningen, en een zooitje grafische trucjes (bitmap-operaties) en that's about it. Daarnaast kun je neem ik aan bij elke core apart hier opdrachten geven, terwijl GPUs per block streamprocessors aangestuurd worden (waarbij elke unit van dit blok dezelfde berekening uitvoert, maar op een ander stuk geheugen).
De power wat die GPGPU van nV en AMD halen licht er aan hoe extreem deelbaar het software probleem is en of de data en code in locale shader mem past of shared shader block mem past.
Maar videomem is stuk trager.

mogelijk blinkt GPGPU uit met 1000 voud aan simpele onafhankelijke berekeningen.
Waar deze in de honderden complexere en ook nog redelijke afhankelijke berekeningen goed uit de voeten kan.

Zo kan een 100000 grain fluid physics de GPGPu dat beter aan.
300 branch heavy AI units deze 60 core PU
En intelligente sidekick of 3 squad AI leden. Die je in game adaptief bij staat wat een cpu core beter aan kan.
Nou, drivers voor IGP. Waar functionaliteit boven optimalisatie staat. en men totaal niet concureerd met retail branch dus hun Driver support in verhouding ook lightweight is.

Daarnaast zal iNtel GPGPU eerder dwars zitten.

Wapen feit is de Hostile take over van Havok. Waar ze de GPGPU module HavokFX gekilled hebben.

Wat ze dus nu wel kunnen doen in havok iNtel IGP of APU cores detecteren en die kunnen aansturen als er een retail kaar de GFX voor handen neemt.
Om het even simpel uit te leggen. Een videokaart is een ultradom ventje met spierballen van hier tot in china. Een processor is een heel groot denker maar zonder zoveel spierballen. Aangezien je grafische kaart een enorme hoeveelheid kracht heeft kan je hem zware repetitieve taken laten uitvoeren. Zoals het mijnen van kolen bv. Met het domme mannetje aan het werk. Heb je nog je denker voor al je "moeilijke taken" te laten uitvoeren. Zoals de boekhouding van je kolenbedrijfje. Ook is deze slimmerik de baas. En zegt hij wat de domme mannetjes moeten doen. Zo werkt je standaart pc/gpu opstelling in de absolute basis. Wat deze co processor nu eigenlijk is zijn eigenlijk nog meer slimme mannetjes jouw groot denker ondersteunen bij al dat denkwerk.

Om nu terug te komen op jouw vraag. Neen deze kaart gaat niet goed gamen. Zelfs al zou er een video-out op zitten. Gewoon omdat je voor je beeld veel spierkracht nodig hebt en weinig denkkracht. Iets waar grafische kaarten in uitblinken. Als je alleen maar naar de core's en de klokfrequentie kijkt zie je dat een budget kaartje van 100 euro meer grafische kracht levert dan deze kaart. De prijs van deze kaart is niet bekend maar wees er maar zeker van dat deze kaart jou toch 2.000 euro armer zal maken. Voor dat geld heb je dan weer een dubbele gtx 690. Welke jouw de snelste gameprestatie's van dit moment zullen bieden.
Pu's zijn simpele rekenmachines die snel heel veel berekeningen kunnen doen.
En door complexe afhankelijkheden slim lijken. Mar dat is eerder gevolg van code kloppers.
Dus het is eerder Het werk wat 10000 termieten aan heuvel bouwen. vs paar bevers hun burcht..

[Reactie gewijzigd door SG op 2 augustus 2012 07:18]

Wat een fantastische uitleg, echt hulde. Ik ben echt trots op jou! Heb mij kapot gelachen!

Anyway, om even te mieren neuken. 4x GTX 680 is iets sneller dan 690. Scaled beter en de clock ferq is hoger per GPU op de 680's. ;-) Echter prijs is het zelfde.
En iedereen heeft ook 4x een 16x PCI-E slot. Vergeet ook niet dat je de ruimte voor moeten hebben en ook de warmte gaat erg slecht weg bij zo'n opstelling tenzij je allemaal waterblokken erop zet.

Dan niet te vergeten dat je waarschijnlijk een 1500+ Watt voeding nodig hebt wat ook dus bij de prijs komt. Ik zal altijd 2 dual GPU kaarten boven 4 single GPU kaarten kiezen, de redenen zijn eigenlijk al vermeld. Ja prestaties zal denk wat beter zijn op de 4 single GPU kaarten maar hoeveelheid ruimte, kabels, stroom en warmte maakt het niet bepaald leuk.
Absoluut hopeloos ze zijn daar helemaal niet voor bedoeld en veel van de truckjes die de moderne GPU's gebruiken om dingen stukken sneller te maken kunnen deze dingen simpel weg niet. Daar naast is er vast geen DX 9, 10 of 11 driver voor beschikbaar dus ook hier wordt het erg lastig.

Je moet bij het vergelijken van deze kaarten met een echte GPU denken aan het verschil tussen een 4 core ARM chip die android 2.3 draait of de laatste android waar wel GPU optimalisatie plaats vind en er geen gebruik gemaakt wordt van de CPU als de GPU het beter kan.

Dit zijn echt kaarten die met de Tesla kaarten van NVidia moeten concurreren. Intel en NVidia kunnen echt niet door 1 deur en zullen elkaar dus maar wat graag dwars zitten daarnaast zijn deze kaarten natuurlijk bij uitstek geschikt voor het bouwen van reken monsters die bijvoorbeeld bedoeld zijn om zo als Intel zo graag zou zien gebeuren in de nabije toekomst realtime raytracing mogelijk te maken.
Intel is heel erg van mening dat de huidige grafische processoren te verslaan zijn door een betere oplossing te bieden voor het berekenen van de kleur van een pixel.
Voor een goede realtime raytracing oplossing heb je belachelijk veel rekenkracht nodig en Intel denkt met dit soort oplossingen dat te kunnen bereiken in de niet al te vere toekomst.

Ga er dus maar van uit dat Intel hoe dan ook deze techniek niet zal gaan inzetten als GPU maar dit echt als een oplossing ziet die een GPU zo als wij die nu kennen uiteindelijk overbodig moet maken. De volgende stap voor Intel is simpel weg deze dingen nog heel erg veel sneller maken, de "pentium" core opmerking in het artikel is een beetje uit zijn verband getrokken. Ja de core is gebaseerd op een pentium core maar dat is een xeon core ook in zijn essentie alleen is er wel een flink aantal jaren werk ingestoken om het ding beter te maken dan hij was. Deze core is een soort van kruising tussen de simpliciteit van een Atom processor (nou ja een heleboel Atom processoren) en een Xeon processor. Men heeft alles dat niet nodig is uit de core gesloopt en alles dat maar 1x nodig is zo als alle connecties naar de buitenwereld er ook uitgesloopt en dit natuurlijk maar 1x op de silicium geplaatst. Op deze manier kun je een erg zuinige processor maken met vele cores die toch ondanks dat alles zich voor kan doen als een gewone processor; die toevallig heel goed is in parallel processing en niet veel anders.
Klopt, deze kaart zou niet in games te gebruiken zijn (met uitzondering van Physx berekeningen). houd hier rekening met realtime 3D moduleren, fotoshoppen of videobewerking.

Echter wil ik niet beweren dat je je in games geen verschil zult merken van je prestatie, alleen is de de prijs-prestatie verhouding in games waarschijnlijk behoorlijk.
De prijs van dit speeltje komt waarschijnlijk op §2200,- uit voor het instapmodel als het al niet meer is. voor dat geld koop je een aardig high-end systeem.

[Reactie gewijzigd door JBVisual op 1 augustus 2012 16:31]

PhysX is product naam voor physics middle ware van nVidia. Die in oorlog staat zijn tov iNtel. PhysX is SMP cripled dus doet niet veel met meerdere cores van intel PU.
havok van iNtel wel.

als beste van beide werelden wilt pas havok voor Physics dat beter op de CPU draaid. meestal is dit gameplay gerelateerde Physics.
En fine grain physics over aan GPGPU via PhysX. naast intel multi core ondersteund het ook niet de GPu concurent AMD Dus PhysX Gpgpu dmv Cuda is beperkt tot effect physics wat op AMD gpu gewoon niet enabled wordt..
Je weet je productnaampjes zo mooi te benoemen, dus stop eens met dat irritante iNtel dan? Dat merk bestaat namelijk niet. Intel wel.
Niet.

Deze kaart heeft geen grafische uitgang, dus je game gaat misschien snel, maar je ziet bar weinig.

Misschien als je zo'n kaart NAAST je grafische kaart zet en deze de physics berekeningen laat doen dat je wel een hele coole interactieve game wereld kunt neerzetten waarbij je bijv. kunt denken aan sporen in gras waar iemand doorheen loopt. Takjes welke afbreken wanneer je er te hard langs rent, gaten waar kogels inslaan, objecten welke realistisch stuiteren/kaatsen etc..., etc...
Geen grafische uitgang hoeft geen probleem te zijn. Je zou heel goed de uitgang van je moederbord of dergelijke kunnen gebruiken.

Het grote probleem (naast dat de drivers waarschijnlijk niet geschikt zijn) is dat met de transistie van Knights Edge naar Knigths Corner waarschijnlijk de hele raster engine en dergelijke verwijderd zijn. De kaart heeft dus geen functionaliteit meer om de screenbuffer te vullen met de juiste data.

Als physics kaart zou dit inderdaad zeer krachtig zijn, hoewel je je moet afvragen of dit de beste keuze is daarvoor. Voor dat soort toepassingen is single precision meer dan genoeg en dan zal een high-end nVidia of AMD een betere gigaflops/§ verhouding hebben.


Het mooiste aan deze chip van Intel is dat de double-precision rekenkracht gewoon de helft is van de single-precision rekenkracht, waar nVidia en AMD GPU's maar een fractie (<20%) overhouden bij van hun single-precision rekenkracht.

[Reactie gewijzigd door knirfie244 op 1 augustus 2012 16:37]

idd als het een parallel monster was zonder uitgang, zou hij nog steeds super ideaal zijn geweest voor deferred en prerender stages waar alle moderne games heel veel gebruik van maken. de final pass (degene die naar je beeldscherm wordt gestuurd), Is vaak gewoon een render van een quad, Die ook gewoon snel op een onboard trage gpu kan worden gedaan :).
Dit soort kaarten zou je dus ook heel goed in een VDI host kunnen stoppen om zo je CAD/CAM VDI's van wat render performance te voorzien zonder dat de CPUs totaal stressed raken en alle andere VDI's op de host tot stilstand komen.
Dit soort kaarten worden voornamelijk gebruikt voor wiskundige berekeningen en rendering. Je kunt ze echter ook gebruiken om (heel vlot) een wachtwoord te kragen door middel van paralelle brute-force attack of bitcoins te minen.

http://gpgpu.org/about
Ik snap niet helemaal waarom er verschil is tussen 57, 60 en 61 cores (een minimaal verschil lijkt me?) wanneer je meer werkgeheugen erin wilt. Waarom bijvoorbeeld niet allemaal even veel cores, en dan oplopend meer cache en werkgeheugen?
Als je berekeningen uitvoert waarbij er bijvoorbeeld 100 berekeningen per seconde per core uitgevoerd kunnen worden dan scheelt dit nogal.

Voorbeeld 500 miljoen berekeningen waarvan er 100 per uur uitgevoerd kunnen worden:

500.000.000 / 57 cores / 100 berekeningen p/s = 24,36 uur
500.000.000 / 61 cores / 100 berekeningen p/s = 22,76 uur

dit scheelt dus bijna 2 uur.

[Reactie gewijzigd door DeV0uReR op 1 augustus 2012 16:47]

Uiteraard, helemaal mee eens. Maar waarom dan niet bijvoorbeeld 30-40-60 cores ofzoiets? Ik bedoel, er zitten er al 60 in, waarom dan die ene extra core bij een upgrade naar meer RAM en cache? Lijkt me vrij apart.
Zal waarschijnlijk met de schaal te maken hebben, met misschien dat alles met maximale cores gemaakt wordt, maar ze niet allemaal 100% functionele cores hebben, en dan zet je er dus 1 of 2 uit.

[Reactie gewijzigd door johnkeates op 1 augustus 2012 16:54]

Sorry, compleet offtopic. Maar waarom schrijf jij Intel als iNtel, 4 keer? Ik erger me er namelijk langzamerhand wel aan.

[Reactie gewijzigd door Dead Pixel op 1 augustus 2012 22:58]

Yields. Intel bouwt een processor met 64 cores. Zijn er een paar stuk? Dan wordt hij verkocht as 57-core processor. Dat is iets wat AMD al jaren toepast.
Ik wacht met smacht op naaktfoto's van deze beesten, ik ben erg benieuwd naar de opbouw.
Correct me if I'm wrong. Is dit niet bedoeld voor of de wetenschap, of computer simulaties/renderfarms??
Kan je zoiets nou inzetten voor virtualisatie ? (bijvoorbeeld vmware)
Jawel, er draai een soort versie van linux op. deze kaart bedoeld om meer dan alleen cuda/open cl te gebruiken. De kaart is via x86 taal te spreken. In hoeverre de kaarten ondersteund worden is een ander verhaal. Overigens is er nog onbekend welke instructiesets worden ondersteund. Ik las dat ze wel samen met xeon procs moeten werken. Dus hang me er niet aan op, maar ik geloof dat het wel mogelijk moet gaan wirden
Daar zeg je wat. Als het gemoderniseerde oudere lightweight cores zijn zoals de de oude Pentium III architektuur. Dan zou je met hun Plugin Compiler van de firma zelf. Binary compeleren die voor de hoofd CPU cores extensies optimaliseerd maar ook voor deze lightweight extensies optimaiseerd. Voor die code blokken die speciek wordt aangegeven op welke cores ze moeten draaien.

In de code Geef je dan aan op welke cores de code block moet draaien.
Alleen is het wel allemaal standaard C++.
Ik ben helaas geen programmeur, maar ik denk dat het wel zo moet kunnen ;)

Ik las hierboven dat iemand zei dat het al ondersteund gaat worden met een ivy bridge proc,... Dat zou handig zijn, maar ik twijfel daar een beetje over. De i7 heeft andere instructiesets welke niet het doel per se ondersteunen waarvoor deze kaarten voor gemaakt zijn. Supercomputer berekeningen gaan toch echt beter op een xeon dan i7.

In de folding@home community willen ze deze graag proberen lijkt het. Zelf ben ik ook we geintereseerd voor mijn 'supercomputer' build. Nog even de kat uit de boom kijken denk ik (wil 'm inzetten voor distributed computing,...maar daar weet ik te weinig van nog :( )

edit: Kijk,...dit is duidelijke taal: http://insidehpc.com/2012...will-ease-mic-transition/

Dit moet antwoord geven denk ik

[Reactie gewijzigd door gitaarwerk op 2 augustus 2012 10:09]

Details over de cores en cache-groottes worden nu pas bekend.
Ik neem dus aan dat details over bijvoorbeeld energieverbruik en hoe dit monster van energie moet voorzien worden nog niet bekend zijn? Correct me if I'm wrong.
De geintroduceerde kaart trok ongeveer 200W voor 50 cores :) (iirc)

Op dit item kan niet meer gereageerd worden.



Populair: Desktops Vliegtuig Luchtvaart Crash Smartphones Laptops Apple Games Besturingssystemen Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013