Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 16 reacties

Amazon heeft nieuwe, op hpc-toepassingen gerichte functionaliteit toegevoegd aan zijn EC2-clouddienst. De 'Cluster GPU'-optie maakt het gebruik van een cluster van twee Nvidia Tesla-gpu's mogelijk voor een snelle, parallelle verwerking van data.

Amazon Web ServicesAmazon denkt met de zogeheten Cluster GPU Instances in de vraag van bedrijven en organisaties te voorzien. Het gaat dan om bedrijven en organisaties die behoefte hebben aan parallelle rekenkracht van een gpu-cluster, maar een dergelijke cluster niet kunnen bekostigen of waarbij de specialistische kennis voor de ontwikkeling ervan ontbreekt. Te denken valt aan toepassingen als complexe berekeningen voor olie- en gasboringen of bijvoorbeeld het doorrekeningen van constructies.

Klanten die een Cluster GPU Instance afnemen krijgen de beschikking over 33,5 zogeheten EC2 Compute Units, waarbij elke rekeneenheid gelijkstaat aan een Opteron- of Xeon-processor uit 2007, met een kloksnelheid van 1 tot en met 1,2GHz, 22GB werkgeheugen, twee Tesla 'Fermi' M2050-gpu-systemen van Nvidia en 1690GB opslag. De huidige Cluster Computer Instance, die eerder dit jaar werd geïntroduceerd, beschikt over dezelfde specificaties, met uitzondering van de twee Tesla-gpu's. Klanten betalen voor de benutte capaciteit van het gpu-cluster.

Volgens Nvidia zijn er al enkele honderden applicaties naar de cuda-architectuur geport. Ook zouden onder meer RealityServer, software voor het interactief renderen van fotorealistische beelden, en het bekende wiskundige pakket MatLab van Mathwork klaar zijn om op de onlinedienst van Amazon te worden uitgerold.

Nvidia Tesla M2050-gpu

Moderatie-faq Wijzig weergave

Reacties (16)

Mooi idee, maar ik heb eens ergens gelezen dat coden voor cuda nogal moeilijk is, dus ik vraag me af of dit erg veel gebruikt zal worden.
Valt mee hoor.

Je moet alleen een goed ontwerp kunnen maken en rekening houden met de geheugen limitaties per thread.
Voor de rest is het eigenlijk gewoon c++ met een cuda library :P
De meeste mensen vallen al af bij 'goed ontwerp', en meestal is CUDA dan ook niet de oplossing van het probleem. De oplossing is veelal: een goede analyse van het probleem. Als je namelijk denk dat er geen overhead zitten tussen CPU => GPU of GPU => GPU geheugen gebruik ga je nogsteeds nat.

Ik vraag me wel af wat deze dienst 'kost' ten opzichte van CPU cycles.
Tja, als je het echt goed wilt doen dan zul je inderdaad goed na moeten denken.

Maar als je net met cuda begint bijvoorbeeld, kun je al snel iets maken wat sneller werkt op een gpu dan op een cpu terwijl het nog steeds erg ongeoptimaliseerd is :)
"overhead zitten tussen CPU => GPU of GPU => GPU geheugen"

Het voordeel is van de andere kant natuurlijk dat de threads in de GPU eerst hun taak kunnen voltooien zonder het systeemgeheugen te benaderen. Dit is een stukje exclusiviteit dat voordelen kan bieden. Ik noem het maar "parallel" geheugen. Alleen de opdracht en het resultaat hoeven gekopieerd te worden Verder wordt het aantal dat een "context switch" tussen processen optreedt flink verminderd.

Een thread gebruikt vaak een ongedeeld stuk geheugen wat een extra rechtvaardiging is om los van het hoofd geheugen te functioneren.

[Reactie gewijzigd door E_E_F op 16 november 2010 07:19]

wiskundige pakket Matlab van Mathworks
Dit pakket word standaard in de wetenschappelijke wereld gebruikt, en ondersteunt sinds kort standaard Cuda. En daar mee is porten van CPU naar GPU extreem simpel, voorbeeld als M een matrix is, en je M = gpuArray(M); uitvoert, dan worden alle normale Matlab berekeningen op matrix M automatisch op de GPU in CUDA ķitgevoert.
is 2 fermi cores niet een beetje weinig?
Daarom gebruiken ze er ook 67 (33,5 EC2 Compute Units x 2 Fermi's)
Is dit ook al een beetje thuis op te zetten? Dus alle laptops en vaste pc's in een cloud zetten (wanneer nodig) om bijvoorbeeld de homemovies te renderen. Eventueel aangevuld met een dienst van Amazon om extra rekenkracht te verkrijgen?
Dat scheelt me weer een dure pc die ik zo af en toe nodig heb.
Heeft iemand hier ervaring mee, of ben ik nog wat jaartjes te vroeg?
homemovies renderen kan elke pc/laptop wel weer tegenwoordig :P
Om wat rekenintensieve taken uit te voeren volstaat meestal een remote desktop connection ook wel, daar kan je ook al aardig wat mee nowadays.
nou ja een beetje hd film duurt toch zo'n 10x langzamer dan realtime, dus als je dan wat extra's kan bijschakelen zou dat mooi zijn.
Ik zie hier minder in dan in de oude opstelling. Het is logisch dat Amazon hun overcapaciteit willen verkopen om zo ook dat niet werkloos te laten staan, maar dit wordt wel heel gespecialiseerd, dit is geen overcapaciteit, dit is speciaal voor dit doel aangeschaft en geÔnstalleerd bij Amazon. Ik ben dan ook erg benieuwd naar het animo voor deze dienst.

Als je echt zo veel brute rekenkracht nodig hebt voor olieboringen etc, dan verwacht ik dat het bedrijf in kwestie zelf ook wel de middelen heeft om te investeren in dergelijke systemen. Bovendien zullen ze het vaker gebruiken en dan gaat al vrij snel het voordeel van cloud computing eraf.
Als je kijkt naar onderzoeksinstituten gebruiken die vaak een enkele supercomputer waarop wetenschappers rekentijd kunnen reserveren. Een enkele wetenschapper heeft doorgaans maar heel af en toe de rekenkracht van zo'n supercomputer nodig - bijvoorbeeld doordat je eerst een grof model maakt wat globaal modelleert hoe een proces verloopt, dat lokaal optimaliseert (doordat het relatief weinig rekenkracht vereist) en pas zodra het model klaar is wordt de definitieve versie met een veel hogere resolutie (in de meest globale zin van het woord) op een supercomputer gedraait.

Wanneer je cluster dan niet altijd belast is wordt het al snel goedkoper om een externe dienst hiervoor in te huren, zoals Amazon die bijvoorbeeld aanbied. Daar komt nog bij dat clusters veel specialistische kennis vereisen, die zelf in huis hebben kost ook geld. Voor de wat kleinere bedrijven kan het dan absoluut interessant zijn om dit uit te besteden.
Het zou inderdaad een toepassing kunnen krijgen binnen het onderzoeksveld. Ware het niet dat veel instituten wel een account hebben bij Sara of CWI, waar bij zij dergelijke 'rekentijd' ook al in kunnen kopen.

De voordelen hiervan is dat sommige peperdure licenties niet zelf hoeven worden aangeschaft. De vraag is in hoeverre Amazon, afgezien van Matlab, tegemoet kan komen in deze vraag.
Je kan zeggen dat dergelijke bedrijven al de middelen en de kennis hebben, maar vanaf de andere kant bezien biedt dit ook voor kleinere bedrijven die dit (nog?) niet hebben de kans om in een andere markt mee te doen.
mooi ding voor in mn PC :P

OT: als er uitvoerige berekeningen voor gasboringen nodig zijn en hier de gasprijs omlaag zou komen door de kostenbesparingen, dan vind ik het allemaal we best :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True