Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties

Intel heeft tijdens een conferentie over supercomputers een zogeheten hpc-accelerator getoond die als ontwikkelplatform moet dienstdoen. Het bedrijf zou het op Larrabee gebaseerde systeem met codenaam Knights Ferry niet verkopen.

Het Knights Ferry-demonstratieplatform zou zijn gebaseerd op Larrabee, Intels ontwerp voor een gpgpu. Intel wilde echter niet bevestigen of het platform op Larrabee is gestoeld, maar demonstreerde de MIC, of many Intel core-architectuur tijdens de SC10-bijeenkomst in New Orleans. Voor de demonstratie verwerkte het systeem medische visuele gegevens die van een mri-scan afkomstig waren.

Knight Ferry is opgebouwd uit tweeëndertig cores die x86-code kunnen verwerken. Intel maakte een MIC-compatibele versie van zijn Parallel Studio XE 2011-software. De cores tikken op 1,2GHz en ondersteunen quad-hyperthreading, wat een systeem met 128 virtuele cores zou inhouden. De 32 cores van de chip, met codenaam Aubrey Isle, delen 8MB L3-cache. De cores worden, samen met 2GB gddr5-geheugen, op een pci-express-insteekkaart gesoldeerd. Intel maakte niet bekend wat de rekencapaciteit van de Knights Ferry-chip in gigaflops is, maar de piek zou op 1 teraflop liggen.

Het ontwikkelplatform Knights Ferry moet in de loop van 2011 of 2012 leiden tot Knights Corner. Die chip, met ten minste vijftig cores aan boord, zou eigenschappen van de Larrabee-architectuur combineren met de single-chip-cloudcomputer en een tachtigcore-research-chip. Knights Corner zou op 22nm worden geproduceerd en voor hpc-doeleinden kunnen worden ingezet.

Intel Knights Ferry
Moderatie-faq Wijzig weergave

Reacties (36)

jammer dat deze niet in je desktop kunnen (A) zou het renderen een stuk sneller maken....
Voor het renderen van 3D modelen zou je Octane Render kunnen gebruiken, deze maakt volledig gebruik van de GPU wel Nvidia GPU`s omdat deze gebruik maakt van CUDA API. Octane Render is een goedkoop programma en handig in gebruik en reter snel als je maar genoeg GPU ~S ter beschikking hebt.
er zijn er meer,
van de amkers van fryrender is er ook Arion een unbiased GPU en CPU renderer (ze noemen hem zelf hyride) die 20-100 keer sneller is dan Fryrender, hun eigen CPU based renderer.

http://www.randomcontrol.com/arion

echter er zijn wel problemen mee, het is geen perfecte oplossing er is bijvoorbeeld geen instancing, en bij grote reflective/reflective objecten zijn er problemen met caustics, en soms puur witte "spots" in de renders,
dit heeft te maken met de mate van precisie waarop een GPU werkt ipv een CPU,
afrondings fouten kunnen leiden tot visuele bugs zeker in grotere scenes.

echter, het is een zeer veelbelovende techniek, en het is nog jong,
maar chips zoals deze knights ferry zouden zeker een plek in de markt kunnen veroveren, zeker als vervanging van renderclusters en professionele videokaarten zoals Quadro, FireGL en de Tesla kaarten.

edit-
http://www.itchy-animatio...ne%20still%20life%201.PNG
hier een voorbeeld van die witte spots die te zijn zijn met oa grote glazen objecten,
met meer samples wort het probleem minder, maar het lost nooit o zoals bij CPU based renderers

[Reactie gewijzigd door freaq op 17 november 2010 14:14]

Al die kinder ziektes die jij benoemd zijn al opgelost, witte "spots" enz. Ik heb eens een review geschreven over de tesla C2060, gewoon om eens te proberen of een review schrijven leuk is. Voor deze review heb in een object gerenderd met Octane Render ter grootte van 2GB + met een formaat van 4K en ondervond geen problemen.

Tegenwoordig is Iraybeschikbaar alleen als je een subscription hebt bij autodesk vette blabla marketing gelul van autodesk en Nvidia samen. Deze Iray is dan wel helemaal in 3Dmax enzo ingebakken das wel relaxed.

Wat ik zelf tegen vind vallen, is dat je relatief weinig geheugen hebt op de grafische kaarten. Natuurlijk zijn er met 2GB 4 GB 6GB maar dan kom je al gauw aan xxxx euro qua prijs.
Als het goed is komt ASUS met een GTX580 met 2GB aan device geheugen vet relaxed van Asus.
pci-express-insteekkaart
wil dat niet zeggen dat je dat net wel kan doen? of vergis ik me nu? :$
in theorie wel, maar het is nog in ontwikkeling, en of het ooit op deze manier op de markt gaat komen is nog maar de vraag.
Misschien is dit enkel een testplatform voor chips die over 2 generaties pas uit gaan komen.

Hoe dan ook is het een fijne portie rekenkracht, zodra je dit goed kan benutten met rekenprogrammatuur kan dit een hoop voordelen bieden.
Volgens mij had een 5870 2+ TFlop aan power. Lijkt me dan toch lichtelijk achterhaald? |:(
Die 2+ Tflops zijn in single precision. In double precision of nauwkeuriger loopt dit rap terug.

Voor de meeste zware berekeningen (weer, oceangrafie, etc.) wil je tenminste double prcision, maar vaak is dit al niet eens meer voldoende.
Die ondersteund geen X86 instructies ;)
Daar heeft ook alleen Intel maar baat bij. Er zijn genoeg andere architecturen waar je ook prima software voor kunt ontwikkelen. Maar zolang de status quo in software-land gehandhaafd blijft zit Intel gebakken. Het kan alleen op de lange duur de innovatie remmen omdat alle research gestoken wordt in de x86 architectuur, terwijl er veel meer oplossingsrichtingen zijn.
mooi... lijkt mij wel leuk als je dit in een gewone thuispc kunt inbrengen ^^
lijkt me nu nog niet handig. dit is alleen zinvol voor software die zoveel cores op een deftige manier kan belasten, en laat de meeste software op dit moment al moeite hebben met 4 cores.
Nee hoor, bijna alle software werkt op 2, 4, 8, 16, 32 en meer cores. Alleen wat je bedoelt is dat niet alle software multicore-aware is en dus niet gebruik zal/kan maken van meer dan 1 core voor het uitvoeren van een bepaalde EXE.

Installeer maar eens een Windows Enterprise Server op een 8-core systeem en je kan rustig iets als Patience op core1 draaien, Outlook op core2, enzovoort...
successor heeft een goed punt. Elke core die je toevoegt heeft zelfs bij bijna perfecte code steeds minder nut.

Stel je hebt super goede code. 90% is uitvoerbaar door zoveel cores als je wilt. En 10% is synchronisatie/io code.

1 core = 10 + 90 seconden = 100
2 cores = 10 + 45 seconden ==55
4 = 10 + 22.5s = 32.5
8 = 10 + 9 = 9
16 = 10 + 4.5 = 14.5
etc..

De limiet is dus 10 + x/inf = 10.

(Niet zelf bedacht trouwens, maar ik kan even niet bedenken wiens 'Law' het ook alwere was).
10+9 is bij mij geen 9 hoor... maar 19
Multi-core-aware? Je zou een goeie buzzword coiner zijn. Maar volgens mij heet dat al tijden 'multithreaded' :)

Multithreaded bestaat al heel lang ( vooral in de Unix wereld, waar multi-cpu systemen eerder gemeengoed waren dan in de windows wereld).
Multithreading is nog steeds van toepassing op een single-core single-socket CPU door middel van time-division multiplexing, onafhankelijk of de betreffende core wel/niet kan hyperthreaden of iets dergelijks..

Dus even afgezien van de daadwerkelijke termen, zolang een applicatie in de basis niet "geschreven" en uiteindelijk gecompileerd is voor het herkennen van meer dan 1 fysieke core (al dan niet aanwezig in een enkele CPU op een enkel socket), dan houdt het snel op met meer dan 1 thread tegelijk af te handelen over meerdere cores en/of CPU's.

En daar wringt de schoen; vaak zijn applicaties wel minstens "hyper-thread-aware" waardoor bepaalde extensies van een enkele core wel ondersteund worden maar veel applicaties weigeren nog steeds (in ieder geval onder Windows maar ook in flink aantal gevallen onder Unix) op meer dan 1 core of meer dan 1 CPU tegelijk (!!!) taken af te handelen teneinde de totale processingtijd te verkorten.
Multi-threading is veel ouder dan SMT (meerdere threads op een core). Voordat er SMT en multicore cpu's beschikbaar werden, kon men allang multi-cpu systemen kopen. Ik heb zelfs multi-cpu 386 en 486 systemen gezien.

Het enige probleem is gewoon dat multi-threaded software voor veel toepassingen lastig te schrijven is. Het werkt vaak alleen goed bij grote hoeveelheden kleinere rekentaken die niet afhankelijk zijn van elkaar.

En daarbij komt dat de meeste programmeurs niet veel scholing hebben gehad danwel krijgen in multi-threaded programmeren.
Ben onlangs een review tegengekomen waar aangetoond werd dat meer dan de helft van de spellen beter af zijn met een quad-core dan met een dual-core. Eens zien of ik het nog terug kan vinden...
Thuis gebruikers zullen hier niets aan hebben.
Deze gpgpu's zijn meer om het zwaardere werk te doen.
Renderen van bijvoordbeeld 3D films (pixar, disney, etc).
Of om gegevens van een CT, MRI, CAT scan te verwerken.
en als die thuisgebruiker nou de freeware software heeft van de big buck bunny toestand daar... en hij wil iets laten renderen daarin... dan hebben ze daar toch wel het nut van?
Jer hebt dan wel breeeeeedbeeld monitor nodig voor je Task Manager als je de CPU Usage History wilt bekijken.
Zou je hiermee goedkoper/energiezuiniger/sneller uitzijn dan met een goede bladeserver als het gaat over rendering van 3D modellen? Of moet ik dit meer zien als een chip die vooral gebruikt gaat worden bij weersvoorspellingen etc?

En zou dit systeem ook werken als 'upgrade' mogelijkheid van een bestaande bladeserver (16x 12 core Xeon)? Want dan is dit een erg leuke ontwikkeling. Waarom alleen x86?
Dat ze voor x86 gekozen hebben zal wel te maken hebben met de wensen van de "Klanten". Tevens het verbruik zal (denk ik) lager liggen.
Waarom? Bij meerdere Blades, heb je meerdere voedingen, en dus ook meer verlies in warmte.

Verder er zijn verder nog niet veel details te vinden over deze gpgpu's.
... Waarom alleen x86
Omdat x86 ook "gewoon" 64-bit extensies aan boord heeft? :?
Dit lijkt me nou eens interessant voor een 3d render farm!
misschien zou je eens kunnen zoeken onder mental image en dan reality server ? je kunt een proef versie downloaden en thuis je eiegen renderfarm bouwen met je eigen PC als je er maar genoeg GPU van nvidia in trap gaat Rality Server als een banaan
Lijkt me dan meer iets voor een bedrijfje waar we dan gezellig met 30 mensen kunnen mailen via één centrale pc. Op zich wel leuk, maar eerst maar wat wachten op effectieve toepassinggebieden.
Dus je gaat een pc optuigen met 32+ cores om er mee te MAILEN?
tuurlijk.. waarvoor kan je dat anders gebruiken :+
Ik denk dat @Joindry bedoelt er virtuele machines op te hosten waarbij ieder VM een eigen core tot z'n beschikking heeft. Deze taak is ongeschikt voor een GPU als deze, en daarbij telt niet alleen het aantal kernen op performance gebied.

Op zich knap dat ze zoveel cores fatsoenlijk met het geheugen kunnen laten praten.
Er lijkt me toch wat vertraging optreden als er zoveel rekenkernen hun ding willen doen in memory.

[Reactie gewijzigd door Vullisbak op 17 november 2010 12:27]

Microsoft Exchange of Open-Xchange zegt je niets? Kan ook op "1 centrale PC" draaien alhoewel de markt dat over het algemeen een small business server noemt...
't nadeel blijft single point of failure, al zou je als tegen argument kunnen gebruiken: hoevaak is jou core dan al kapot gegaan? bij mij namelijk nog nooit...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True