Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 20 reacties

De professional edition van Parallel Nsight-ontwikkelsoftware voor Visual Studio-developers is voortaan gratis beschikbaar. Nvidia hoopt dat ontwikkelaars met het extra Cuda-gereedschap meer gpgpu-applicaties gaan bouwen.

Parallel NsightVersie 1.51 van Parallel Nsight is gericht op ontwikkelaars die Cuda-applicaties voor het Windows-besturingssysteem willen bouwen. De developersoftware van Nvidia werkt samen met Microsofts ide Visual Studio 2008 en 2010. Parallel Nsight moet het voor ontwikkelaars eenvoudiger maken om Cuda-code te schrijven en te debuggen, waardoor de gpu ingezet kan worden voor het uitvoeren van parallelle rekenklussen met forse snelheidswinsten tot gevolg.

Parallel Nsight biedt developers volgens Nvidia onder andere de mogelijkheid om Cuda-code in C, C++ en DirectCompute te debuggen, terwijl het analyzer-deel meer inzicht moet geven in draaiende applicaties. Daarnaast heeft Nvidia de nodige grafische ontwikkeltools aan Parallel Nsight toegevoegd waardoor 3d-objecten binnen Visual Studio bekeken en bewerkt kunnen worden.

Hoewel Nvidia de Parallel Nsight samen met enkele andere Cuda-ontwikkeltools nu gratis aanbiedt, zit er een addertje onder het gras; ontwikkelaars die extra ondersteuning willen, dienen bij Nvidia een premium support-contract af te sluiten.

Moderatie-faq Wijzig weergave

Reacties (20)

Heel leuk nieuws, ware het niet dat er ook zoiets is als OpenCL wat veel lijkt op CUDA maar Open Source is en tevens wordt ondersteund door NVidia & AMD/ATI. Waarom toch?
@wumpus: de performance van CUDA is idd iets beter klik

[Reactie gewijzigd door BartBlackMagic op 30 januari 2011 12:40]

NVidia heeft ook gewoon OpenCL support... maar al je een NVidia kaart hebt en het onderste uit de kan wilt halen wat betreft features en performance is CUDA nog altijd de beste keus. Dit omdat OpenCL generiek genoeg moet zijn om portable te zijn tussen verschillende GPUs, dus heeft het qua features de lowest common denominator van beide.
onzin OpenCL kan alles wat cuda ook kan, performance is net zo goed met OpenCL (misschien zelfs beter)
Als je geen specifieke CUDA features gebruikt is OpenCL,theoretisch in ieder geval, even snel. Er zitten alleen nog een aantal bugs in de code generator voor OpenCL van de NVidia driver lijkt het, waardoor dit niet altijd helemaal het geval is.
noem eens een specifieke Cuda Feature, want die zijn er niet.
hoeven niet perse bugs te zijn Cuda moet van nV uiteraard beter presteren dan OpenCL.

Het is helaas appels en peren vergelijken als AMD Open CL vergelijkt met nV GPGPU op Cuda

Het verschil tussen OpenCL en Cuda is dat de initialisatie en setup van nV GPGPU deels door de driver wordt gedaan en dus overhead weg is. Ook is het aanbod van nV GPU ook beperkt waardoor deze setup overhead geoptimaliseerd is voor n soort van architektuur.

Open GL is generieker en de setup moet de programmeur zelf doen en daar mee flexibeler maar ook meer werk en mogelijk ook meer overhead.

Dus mij lijket performance van Cuda beter maar is eenkennig. Open CL minder maar breed publiek toe pasbaar.

D'r zijn markten waar performace prioriteit heefd. Waar men inhouse voor zware taken zelf apps voor ontwikkelen. Zoals Uni's super computer gebruik etc.
massa aplicatie en game industrie. Zo groot mogelijk target platform, waar performance hit voor lief word genomen zoals een scripted engine maar uiteraard andere grote voordelen bied.
Tja, een prachtige tool maar word gewoon niet gebruikt. Terwijl dit performance voor CPU intensieve applicaties makkelijk kan vertienvoudigen.
Het kan de performance vertienvoudigen. Het kan ook helemaal geen effect hebben. Het nut van het gebruik van de GPU hangt sterk af van de applicatie. In principe is men redelijk conservatief in de software ontwikkeling. Enkel als er echt een flinke performancewinst te halen is (en die performancewinst handig is) wordt een stuk opnieuw ontworpen. In veel gevallen is de performance toereikend of totaal niet relevant. Dan kun je in theorie misschien de efficintie verbeteren, maar de kosten en het risico zijn de opbrengsten niet waard.
Humbug slaat de spijker op zijn kop.

Wat je moet beseffen is dat developers bij verschillende projecten heel divers prioriteren op wat belangrijk is.

Afhankelijk van het doel van de applicatie kunnen dingen als optimaliseren van code heel divers geprioriteerd worden.

Bij applicaties die forse grote berekeningen uit moeten voeren zal code optimalisatie uiteraard altijd een grote rol blijven spelen, maar je moet begrijpen dat het altijd om investering/performance gaat. En investering hoeft niet perse in meer develop uren gestopt te worden. Als betere/meer hardware dezelfde returns geeft voor hetzelfde/minder geld is dit uiteraard een betere optie.

Developers zijn duur, en het komt dan ook vaak voor bij kleinere applicaties (MKB niveau zeg maar, in het bijzonder webapplicaties) dat een upgrade van de server voorrang kan krijgen over het moeizame proces van code optimaliseren. Voor het eerste is namelijk enkel geld nodig, en het helpt meer dan alleen de web-applicatie. Voor het tweede is veel programmeer kennis nodig, en afhankelijk van de applicatie is het maar de vraag of er uberhaupt te optimaliseren valt, wat de returns zullen zijn, en hoeveel develop uren dat gaat kosten. Vaak wordt er in dat geval dan ook gekozen om de develop uren zoveel mogelijk te steken in vernieuwing en functionaliteit.

Dit baseer ik op professionele ervaring in een MKB overigens.
Ja het is een hoop werk om specifiek code te tunen voor bepaalde architecturen (zowell CPU als GPU). Ik gebruik zelf momenteel Theano, dit is een Python gebaseerde library voor lineaire algebra die automatisch on-the-fly redelijke efficiente GPU of CPU code genereert.
Het is waarschijnlijk iets minder efficient dan zelf tweaken, maar je kan nog steeds enorme speedups (soms wel 100x) ten op zichte van CPU krijgen.
Ik begon met lezen en dacht. Dit is bijna te mooi om waar te zijn... en meestal als ik dit denk klopt het ook. Dit is te mooi om waar te zijn. Je moet er namelijk een premium support contract voor afsluiten. Maar goed, uiteindelijk gaat het allemaal om commercie, op deze manier hopen ze dat ze meer ontwikkelaars met Nvidia dan met hun concurrent laten werken.
als je goed leest staat er dit:
ontwikkelaars die extra ondersteuning willen, dienen bij Nvidia een premium support-contract af te sluiten.
Je kan de tool op zichzelf dus prima gebruiken, echter bij problemen o.i.d. zul je voor support zo'n contract moeten hebben.

Ongetwijfeld dat er ook wel gauw fora zullen worden opgezet hiervoor.
Hoewel Nvidia de Parallel Nsight samen met enkele andere Cuda-ontwikkeltools nu gratis aanbiedt, zit er een addertje onder het gras; ontwikkelaars die extra ondersteuning willen, dienen bij Nvidia een premium support-contract af te sluiten.
Zo vreemd is dat toch niet? Dat zie je steeds vaker dat de tools gratis worden aangeboden en als je support wilt, of net even wat extra's dat je dan alsnog moet betalen.

Voorbeeld is XEN-server of VMware player.

IMHO is dat ook de manier waarop je het het langst kunt volhouden. De thuisgebruiker die het wil proberen zal je toch nooit aan verdienen, tenzij hij/zij het op een gegeven moment zakelijk ook wil gebruiken en dan net even dat extra's nodig heeft en zo krijg je dus wel marktaandeel zonder dat het je tijd kost aan support-vragen. De tijd die je het wel kost wordt ook netjes betaald.
Is cuda als mogelijkheid ook geschikt voor applicaties voor thuisgebruikers waarbij je in eerste instantie niet denkt aan het nodig hebben van een degelijke videokaart? Ik meen dat tegenwoordig de "Bottleneck" van performance vooral op de CPU ligt in een PC.

Zou dit ook een manier zijn van nVidia om Cuda als een standaard in te voeren? Zien we binnenkort ook AMD kaarten met een Cuda support, of is dit om zowel thuisgebruikers als zakelijke consumenten aan te moedigen op het gebruik van nVidia kaarten?

Heb ook al ergens gelezen dat nVidia de Cuda technologie in mobiele telefoons zetten wil.

[Reactie gewijzigd door Arcticwolfx op 30 januari 2011 12:41]

daar hebben we al amd / ati stream voor.
De bottleneck bij het normale gebruik ligt en heeft bijna al altijd bij de harde schijf gelegen.

En dit is inderdaad een van de laatste stuiptrekkingen van NVIDIA om toch hun proprietaire CUDA op de markt te krijgen.
Zo lang er genoeg CUDA support is hoeft dat toch geen probleem te zijn?

Nvidia (en AMD voor hetzelfde geld) moeten het op het gebied van GPGPU toch sowieso hebben van high-calculation projecten en distributed-computing. Winst halen ze echt niet uit de particuliere markt. Juist die organisaties die doodleuk 400 Nvidia prof. kaarten in een mainframe zetten om berekeningen uit te voeren, dr moeten ze het van hebben.

Zolang zj CUDA kunnen gebruiken voor hun doeleinden, zal het Nvidia (, met uitzondering van de distributed home computing projecten,) niet zo veel bommen of de gemiddelde huis en tuin gebruiker mbv. GPGPU sneller zijn youtube filmpjes kan afspelen, minecraft kan spelen en op de achtergrond z'n getorrente .rar's kan uitpakken.. of niet.
Beetje competitie kan nooit kwaad natuurlijk. Heb nog nooit van Stream gehoord..
Go nvidia! Door initiatieven als deze blijft mijn voorkeur bij nvidia.. en ik denk dat dat nou juist de strategie is. Maargoed.. het werkt. PhysX, Cuda, nu dit. Helemaal goed. Heb ik van de week weer wat te doen :*)
jammer dat iets dergelijks (naar mijn weten) niet bestaat voor gcc! (of mingw32, de 'windows gcc')

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True