Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 20 reacties

Microsoft heeft samengewerkt met Nvidia om zijn Cognitive Toolkit te optimaliseren voor gpu's. De deeplearningtoolkit heeft toepassingen in Cortana en Skype. De software moet na een update ongeveer zeven keer zo snel zijn als de eerdere versie.

Zo kan de toolkit bijvoorbeeld draaien op de in april aangekondigde Nvidia-'supercomputer' DGX-1, die beschikt over acht Tesla P100-accelerators. Andere mogelijkheden zijn toepassingen op Microsofts Azure-servers, schrijft Nvidia. De Azure N-vm's met Nvidia-gpu's moeten binnenkort breed beschikbaar komen en bevinden zich nu in een preview-fase, aldus het bedrijf.

Ian Buck, Nvidia-vicepresident voor accelerated computing, legt aan PCWorld uit dat de eigen gpu's in het verleden al werkten met de Cognitive Toolkit, maar dat de samenwerking tot een grote snelheidswinst heeft geleid. Om dat te bereiken hebben de bedrijven samen deeplearningalgoritmes ontwikkeld die zijn geoptimaliseerd voor gpu's. Buck gaf geen informatie over de beschikbaarheid van de nieuwe versie van de toolkit.

Microsoft heeft in oktober de Cognitive Toolkit op GitHub beschikbaar gesteld en ontwikkelaars konden deze combineren met Python en C++. De software stond eerst bekend onder de naam CNTK en kan ingezet worden voor deeplearningdoeleinden. Zo vormt de toolkit de basis voor vertalingen in Skype en achterhaalt deze de context van zoekopdrachten in Bing. Microsoft paste de toolkit toe in zijn spraakherkenningstechnologie, die onlangs woorden wist te herkennen op vrijwel hetzelfde niveau als een mens.

Moderatie-faq Wijzig weergave

Reacties (20)

Word het niet tijd om de term GPU eens de deur uit te doen :D Die doen allang veel meer dan Graphical dingen :D
Zou je denken, maar Global Processing Unit is nog steeds een GPU :p
General Processing Unit :)

maarja sinds de GPU programmeerbaar is is het inderdaad een veel nuttigere tool geworden.
er zit nog wel wat dedicated Graphics spul in maar dat wordt steeds minder.
Kan iemand uitleggen wat dit precies inhoud voor de gebruikers ?
Volgens mij vrij weinig, dit is meer voor het programmeren en reken taken als ik dit zo lees.

Ik kan het fout hebben.
Dat er software gemaakt kan worden die bijvoorbeeld accuraat vertaald zoals in het artikel vermeld staat, maar dat dit nu 7x zo snel gemaakt kan worden.

Dus in het kort, deep learning op GPUs wordt efficiŽnter en het wordt dus sneller.
Snellere web apps die deep learning gebruiken op de back-end (de MS Azure servers waar men de web app draait). Of betere bots zoals Cortana voor windows 10 of skype bots (vooral handig voor bedrijven, iets minder voor consumenten).
Direct niet veel, maar het opensource beschikbaar stellen van de tool waarmee machine learning wordt gedaan, kan wel een stroomversnelling voor de kwaliteit en toepassingen van machine learning betekenen. En op de lange termijn hebben wij als gebruikers daar profijt van dat machine learning beter werkt, en op meer plekken toegepast wordt.
op zich heeft het direct invloed op gebruikers. Zoals skype die nu voor beperkte talen real time vertalingen levert. Dat kan hierdoor nog sneller, beter en waarschijnlijk ook voor de lastigere talen als nederlands. De universal translator komt steeds dichterbij hierdoor.
Stel je voor dat de EU dit zou gebruiken in vergaderingen, dan scheelt dat enorme hoeveelheid geld aan translators daar.
Ja tuurlijk, dat is ook wat ik zeg; deze ontwikkeling an sich heeft alleen directe gevolgen voor de programmeurs, dat feit heeft wel direct gevolg voor de gebruikers. Maar het is niet zo dat dit nieuws ineens betekend dat Skype vanaf vandaag efficienter en beter werkt :)
makkelijk afluisteren voor de "geheime" diensten want men weet immers wat er vertaald wordt.
Voor zover ik kan zien werkt deze toolkit alleen met NVidia's CUDA.
Nvidia heeft de afgelopen jaren veel tijd en geld gestoken in het optimaliseren van hun gpu's met dit soort toolkits (CUDA). Andere videokaart boeren hebben dit niet op deze manier ontwikkelt.

Ik gok overigens ook dat de Cognitive Toolkit zonder een gpu kan werken (net als andere machine learning toolkits, zoals CaffŤ en Theano), maar super traag is door de minimale parallelle distributie mogelijkheden.
Ligt eraan wat jij verstaat onder 'gebruikers'..

Ontwikkelaars en onderzoekers die gebruik (gaan) maken van de Cognitive Toolkit in combinatie met dikke hardware, zullen hun deep learning modellen sneller kunnen trainen, testen, tweaken en optimaliseren.

De gebruikers van software zoals Skype, zullen er niet direct iets van merken.
Waar het mij om gaat is dat het er nu op lijkt dat microsoft nvidia bevoordeeld door delen sourcecode te geven (of inzicht) dat bij andere merken misschien niet gegeven wordt.

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True